Il Board di OpenAI – la società di intelligenza artificiale che sviluppa i modelli LLM GPT e il chatbot AI ChatGPT – ha annunciato di aver costituito un Comitato per la sicurezza (Safety and Security Committee) guidato dai direttori Bret Taylor (presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (CEO).
Questo comitato avrà il compito di formulare raccomandazioni all’intero Consiglio di amministrazione sulle decisioni critiche in materia di sicurezza per i progetti e le operazioni di OpenAI.
Contestualmente a questo annuncio, l’azienda ha anche reso noto di aver recentemente iniziato il training del suo modello di frontiera di prossima generazione, di cui non è stato condiviso il nome né i dettagli. Ciò che OpenAI ha però detto, è che prevede che i sistemi che ne deriveranno porteranno al livello successivo di capacità nel percorso verso l’AGI (artificial general intelligence).
Nel dare l’annuncio della nascita del suo Comitato per la sicurezza, l’azienda si dice orgogliosa di costruire e rilasciare modelli che sono all’avanguardia sia per quanto riguarda le capacità che la sicurezza, ma al contempo è favorevole al fatto di assistere a un dibattito approfondito in questo momento importante.
Un primo compito del Comitato per la sicurezza sarà quello di valutare e sviluppare ulteriormente i processi e le safeguard di OpenAI nei prossimi 90 giorni. Al termine dei 90 giorni, il Comitato per la sicurezza condividerà le proprie raccomandazioni con l’intero Consiglio di amministrazione. Dopo l’esame dell’intero Consiglio, OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate in un modo che sia coerente con la sicurezza.
Del comitato faranno parte anche gli esperti tecnici e di policy di OpenAI Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security) e Jakub Pachocki (Chief Scientist).
Inoltre, OpenAI si avvarrà della collaborazione di altri esperti di sicurezza e tecnici per supportare questo lavoro, tra cui ex funzionari della sicurezza informatica, Rob Joyce, che fornisce consulenza a OpenAI in materia di sicurezza, e John Carlin.