Home Intelligenza Artificiale NEC migliora l'affidabilità dei modelli LLM per contesti aziendali e settori critici

NEC migliora l’affidabilità dei modelli LLM per contesti aziendali e settori critici

NEC Laboratories Europe, il centro europeo di ricerca e sviluppo di NEC Corporation, annuncia di aver sviluppato LLM Explainer, una tecnologia che aiuta a rilevare e spiegare le “allucinazioni” nell’output generato dai modelli linguistici di grandi dimensioni (LLM) comunemente disponibili. LLM Explainer è in corso di integrazione con NEC cotomi, il modello proprietario sviluppato da NEC Corporation e già disponibile come servizio in Giappone.

Gli LLM sono un tipo di intelligenza artificiale generativa che comprende e genera linguaggio naturale. Sebbene siano sempre più adottati dalle aziende e da utenti consumer in attività che richiedono conoscenze specialistiche, gli LLM producono ancora risultati errati, comunemente chiamati allucinazioni. Ciò ne limita l’impiego in contesti che richiedono informazioni accurate o che comportano rischi, ad esempio in operazioni strategiche per l’azienda o nella gestione di infrastrutture critiche.

Carolin Lawrence, Manager e Chief Research Scientist di NEC Laboratories Europe, spiega: “Attualmente, le organizzazioni che utilizzano gli LLM devono controllare manualmente che l’output sia corretto, il che può richiedere tempo considerevole, riducendo i vantaggi derivanti dall’automazione. Incorporando LLM Explainer, cotomi, l’intelligenza artificiale generativa di NEC, permette agli utenti di confrontare l’output di LLM direttamente con le parti rilevanti della documentazione di partenza che costituiscono il fondamento delle risposte generate. In questo modo gli utenti possono controllare e verificare in modo efficiente la correttezza del testo generato e, se necessario, correggerlo“.

NEC LLM ExplainerUtilizzando i più recenti progressi nell’elaborazione del linguaggio naturale, LLM Explainer confronta sia le parole che il significato delle frasi per individuare omissioni, duplicazioni e cambiamenti di significato tra la documentazione originale e le frasi generate. Inoltre, per ogni frase in output, gli utenti possono visualizzare le porzioni di testo pertinenti della documentazione originale, in modo da determinare la correttezza del testo generato.

La Dr. Lawrence aggiunge: “Evidenziare le prove e le potenziali discrepanze in un formato semplice, per informazioni spesso complesse, permette agli utenti di apportare correzioni e di adattare rapidamente il testo generato da LLM alle loro esigenze.”

NEC prevede di migliorare il rilevamento delle allucinazioni LLM nei servizi di intelligenza artificiale generativa aggiungendo funzioni come la ricerca di entità allucinate e l’identificazione di contraddizioni, accelerando ulteriormente l’individuazione la correzione delle eventuali discrepanze introdotte dai LLM.

LLM Explainer sarà integrato nei servizi API di IA generativa di NEC cotomi per il Giappone a partire dalla fine di ottobre. Una versione del servizio sarà disponibile anche in modo on premise.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php