LAS VEGAS, NV, USA, 1 dicembre 2023 – In occasione di AWS re:Invent, NVIDIA ha annunciato un microservizio di IA generativa che consente alle aziende di collegare modelli linguistici personalizzati di grandi dimensioni ai dati aziendali per fornire risposte estremamente precise alle loro applicazioni di IA.

NVIDIA NeMo Retriever – una nuova offerta nel settore NVIDIA NeMo famiglia di framework e strumenti per la creazione, la personalizzazione e l’implementazione di modelli di IA generativa – aiuta le organizzazioni a potenziare le proprie applicazioni di IA generativa con un livello di qualità enterprise. generazione aumentata dal reperimento (RAG).
Come microservizio di recupero semantico, NeMo Retriever aiuta le applicazioni di IA generativa a fornire risposte più precise grazie agli algoritmi ottimizzati da NVIDIA. Gli sviluppatori che utilizzano il microservizio possono connettere le loro applicazioni di IA ai dati aziendali ovunque essi risiedano tra cloud e data center. Aggiunge capacità RAG ottimizzate da NVIDIA a Fonderie di intelligenza artificialee fa parte del progetto NVIDIA AI Enterprise piattaforma software, disponibile in Mercato AWS.
Cadence, Dropbox, SAP e ServiceNow sono fra i pionieri che collaborano con NVIDIA per integrare le capacità RAG pronte per la produzione nelle loro applicazioni e servizi di intelligenza artificiale generativa personalizzati.
“Le applicazioni di IA generativa con capacità RAG sono le prossime killer app delle aziende”, ha dichiarato Jensen Huang, fondatore e CEO di NVIDIA. “Con NVIDIA NeMo Retriever, gli sviluppatori possono creare chatbot, copiloti e strumenti di riepilogo di AI generativa personalizzati in grado di accedere ai dati aziendali per trasformare la produttività con un’intelligenza generativa di AI accurata e preziosa.”
I leader mondiali migliorano la precisione degli LLM con NeMo Retriever
Cadence, leader nella progettazione di sistemi elettronici, serve aziende che operano nei mercati dell’hyperscale computing, delle comunicazioni 5G, dell’automotive, del mobile, dell’aerospaziale, dei consumatori e della sanità. Sta collaborando con NVIDIA per sviluppare funzionalità RAG per applicazioni AI generative nella progettazione di elettronica industriale.
“L’IA generativa introduce approcci innovativi per rispondere alle esigenze dei clienti, come gli strumenti per scoprire potenziali difetti nelle prime fasi del processo di progettazione”, ha dichiarato Anirudh Devgan, presidente e CEO di Cadence. “I nostri ricercatori stanno collaborando con NVIDIA per utilizzare NeMo Retriever al fine di incrementare ulteriormente l’accuratezza e la pertinenza delle applicazioni di IA generativa per rivelare i problemi e aiutare i clienti a commercializzare più rapidamente prodotti di alta qualità”.
Cracking del codice per applicazioni di IA generativa accurate
A differenza dei toolkit RAG open-source, NeMo Retriever supporta l’IA generativa pronta per la produzione con modelli commercialmente validi, stabilità delle API, patch di sicurezza e supporto aziendale.
Gli algoritmi ottimizzati da NVIDIA garantiscono la massima precisione dei modelli di embedding di Retriever. I modelli di embedding ottimizzati catturano le relazioni fra le parole, consentendo ai LLM di elaborare e analizzare i dati testuali.
Utilizzando NeMo Retriever, le aziende possono collegare i loro LLM a più fonti di dati e basi di conoscenza, in modo che gli utenti possano interagire facilmente con i dati e ricevere risposte accurate e aggiornate utilizzando semplici prompt conversazionali. Le aziende che utilizzano le applicazioni basate su Retriever possono consentire agli utenti di accedere in modo sicuro alle informazioni in numerose modalità di dati, come testo, PDF, immagini e video.
Le aziende possono utilizzare NeMo Retriever per ottenere risultati più precisi con meno addestramento, accelerando il time to market e supportando l’efficienza energetica nello sviluppo di applicazioni di IA generativa.
Distribuzione affidabile, semplice e sicura con NVIDIA AI Enterprise
Le aziende possono distribuire le applicazioni basate su NeMo Retriever per eseguirle durante l’inferenza sul computing accelerato da NVIDIA, praticamente su qualsiasi data center o cloud. NVIDIA AI Enterprise supporta l’inferenza accelerata e ad alte prestazioni con NVIDIA NeMo, Server di inferenza NVIDIA Triton, NVIDIA TensorRT, NVIDIA TensorRT-LLM e altri NVIDIA AI software.
Per massimizzare le prestazioni dell’inferenza, gli sviluppatori possono eseguire i loro modelli su Superchip NVIDIA GH200 Grace Hopper con software TensorRT-LLM.
Disponibilità
Gli sviluppatori possono registrarsi per ottenere l’accesso anticipato a NVIDIA NeMo Retriever.
Informazioni su NVIDIA
Sin dalla sua fondazione nel 1993, NVIDIA (NASDAQ: NVDA) è stata un pioniere dell’elaborazione accelerata. L’invenzione della GPU nel 1999 ha dato il via alla crescita del mercato dei giochi per PC, ha ridefinito la grafica dei computer, ha dato il via all’era della moderna IA e sta alimentando la digitalizzazione industriale in tutti i mercati. NVIDIA è ora un’azienda di full-stack computing con offerte su scala data-center che stanno ridisegnando il settore. Maggiori informazioni su https://www.nvidia.com.