Home Anthropic, Google, Microsoft e OpenAI partner per l'AI responsabile

Anthropic, Google, Microsoft e OpenAI partner per l’AI responsabile

Anthropic, Google, Microsoft e OpenAI hanno annunciato la costituzione del Frontier Model Forum, un nuovo organismo di settore che si occupa di garantire uno sviluppo sicuro e responsabile dei modelli di intelligenza artificiale (AI).

Il Frontier Model Forum si avvarrà dell’esperienza tecnica e operativa delle aziende che ne fanno parte a beneficio dell’intero ecosistema dell’AI, ad esempio attraverso l’avanzamento delle valutazioni tecniche e dei benchmark e lo sviluppo di una libreria pubblica di soluzioni a supporto delle best practice e degli standard del settore.

Gli obiettivi principali del Forum, spiegano le quattro aziende, sono:

  1. Promuovere la ricerca sulla sicurezza dell’AI per guidare uno sviluppo responsabile dei modelli frontier, minimizzare i rischi e consentire valutazioni indipendenti e standardizzate delle capacità e della sicurezza.
  2. Identificare le best practice per lo sviluppo e la diffusione responsabile dei frontier model, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l’impatto della tecnologia.
  3. Collaborare con i politici, gli accademici, la società civile e le aziende per condividere le conoscenze sulla fiducia e sui rischi per la sicurezza.
  4. Sostenere gli sforzi per sviluppare applicazioni che possano aiutare a rispondere alle maggiori sfide della società, come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e la lotta alle minacce informatiche.

Il Forum definisce frontier model come modelli di machine learning su larga scala che superano le capacità attualmente presenti nei modelli esistenti più avanzati e che sono in grado di eseguire un’ampia varietà di compiti.

L’adesione all’organismo è aperta alle organizzazioni che sviluppano e distribuiscono modelli di frontiera (secondo la definizione del Forum); dimostrino un forte impegno per la sicurezza dei frontier model, anche attraverso approcci tecnici e istituzionali; sono disposte a contribuire a far progredire gli sforzi del Forum, anche partecipando a iniziative congiunte e sostenendo lo sviluppo e il funzionamento dell’iniziativa.

I promotori sottolineano come i governi e l’industria di settore concordino sul fatto che, sebbene l’AI offra un’enorme promessa di benefici per il mondo, sono necessarie adeguate protezioni per mitigare i rischi. I governi degli Stati Uniti e del Regno Unito, l’Unione Europea, l’OCSE, il G7 (attraverso l’iniziativa Hiroshima AI Process) e altri hanno già dato un contributo importante in questo ambito.

Per proseguire questi sforzi, è necessario lavorare ulteriormente sugli standard di sicurezza e sulle valutazioni per garantire che i modelli di AI di frontiera siano sviluppati e utilizzati in modo responsabile. Il Forum sarà un veicolo per discussioni e azioni inter-organizzative sulla sicurezza e la responsabilità dell’intelligenza artificiale, spiegano le aziende promotrici.

Nel corso del prossimo anno il Forum si concentrerà su tre aree chiave per sostenere lo sviluppo sicuro e responsabile dei frontier model di AI:

  • Identificare best practice: promuovere la condivisione delle conoscenze e delle migliori pratiche tra l’industria, i governi, la società civile e il mondo accademico, con particolare attenzione agli standard e alle pratiche di sicurezza per mitigare un’ampia gamma di rischi potenziali.
  • Promuovere la ricerca sulla sicurezza dell’AI: sostenere l’ecosistema della sicurezza dell’AI identificando le più importanti questioni di ricerca aperte in materia. Il Forum coordinerà la ricerca per far progredire questi sforzi in aree quali l’adversarial robustness, l’interpretabilità meccanicistica, la supervisione scalabile, l’accesso indipendente alla ricerca, i comportamenti emergenti e il rilevamento delle anomalie. Inizialmente ci si concentrerà sullo sviluppo e sulla condivisione di una public library di valutazioni tecniche e benchmark per i modelli di AI di frontiera.
  • Facilitare la condivisione delle informazioni tra aziende e governi: stabilire meccanismi affidabili e sicuri per la condivisione di informazioni tra le aziende, i governi e le parti interessate in merito alla sicurezza e ai rischi dell’AI. Il Forum seguirà le migliori pratiche di divulgazione responsabile in settori quali la sicurezza informatica.

Nei prossimi mesi – hanno annunciato Anthropic, Google, Microsoft e OpenAI –, il Frontier Model Forum istituirà un comitato consultivo che contribuirà a guidarne la strategia e le priorità, rappresentando una diversità di background e prospettive.

Le società fondatrici stabiliranno anche i principali accordi istituzionali, tra cui uno statuto, la governance e i finanziamenti, con un gruppo di lavoro e un comitato esecutivo che guideranno questi sforzi. Nelle prossime settimane le aziende intendono consultarsi con la società civile e i governi sulla struttura del Forum e sulle modalità di collaborazione più significative.

Il Frontier Model Forum dichiara di accogliere con favore l’opportunità di contribuire a sostenere e alimentare le iniziative governative e multilaterali esistenti, come l’Hiroshima Process del G7, il lavoro dell’OCSE sui rischi, gli standard e l’impatto sociale dell’AI e il Trade and Technology Council USA-UE.

Il Forum cercherà inoltre di sfruttare il prezioso lavoro svolto dall’industria, dalla società civile e dalla ricerca in ogni sua attività. Iniziative come la Partnership on AI e MLCommons continuano a fornire importanti contributi alla comunità dell’AI e il Forum esplorerà i modi per collaborare e sostenere queste e altre preziose iniziative multi-stakeholder.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php