Home Intelligenza Artificiale L'Istituto statunitense per la sicurezza dell'AI sigla accordi storici con Anthropic e...

L’Istituto statunitense per la sicurezza dell’AI sigla accordi storici con Anthropic e OpenAI

L’Istituto statunitense per la sicurezza dell’intelligenza artificiale (U.S. Artificial Intelligence Safety Institute) presso il National Institute of Standards and Technology (NIST) del Dipartimento del Commercio degli Stati Uniti ha annunciato accordi che consentono una collaborazione formale per la ricerca, la sperimentazione e la valutazione della sicurezza dell’AI sia con Anthropic che con OpenAI.

Il memorandum d’intesa di ciascuna società, spiega l’Istituto statunitense, stabilisce il quadro di riferimento per l’U.S. AI Safety Institute, che avrà accesso ai principali nuovi modelli di ciascuna società prima e dopo il loro rilascio pubblico. Gli accordi consentiranno una ricerca collaborativa su come valutare le capacità e i rischi per la sicurezza, nonché sui metodi per mitigare tali rischi.

La sicurezza è essenziale per alimentare l’innovazione tecnologica. Con questi accordi, non vediamo l’ora di iniziare le nostre collaborazioni tecniche con Anthropic e OpenAI per far progredire la scienza della sicurezza dell’AI“, ha dichiarato Elizabeth Kelly, director dell’U.S. AI Safety Institute. “Questi accordi sono solo l’inizio, ma rappresentano un’importante pietra miliare per contribuire a gestire responsabilmente il futuro dell’AI“.

Inoltre, l’U.S. AI Safety Institute intende fornire un feedback ad Anthropic e OpenAI sui potenziali miglioramenti della sicurezza dei loro modelli, in stretta collaborazione con i suoi partner dell’U.K. AI Safety Institute.

L’U.S. AI Safety Institute si basa sul retaggio di oltre 120 anni del NIST nel promuovere la scienza delle misure, la tecnologia, gli standard e gli strumenti correlati. Le valutazioni previste da questi accordi promuoveranno il lavoro del NIST sull’AI facilitando una collaborazione approfondita e una ricerca esplorativa sui sistemi avanzati di AI in una serie di aree di rischio.

Le valutazioni condotte in base a questi accordi – sottolinea l’Istituto statunitense – contribuiranno a far progredire lo sviluppo e l’uso dell’AI in modo sicuro e affidabile, basandosi sull’ordine esecutivo dell’amministrazione Biden-Harris sull’AI e sugli impegni volontari assunti nei confronti dell’amministrazione dai principali sviluppatori di modelli di intelligenza artificiale.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php