In occasione dell’Aspen Security Forum, è stata annunciata la Coalition for Secure AI (CoSAI): ospitata dall’organismo di standardizzazione globale OASIS, CoSAI è un’iniziativa open-source progettata per fornire a tutti gli operatori e agli sviluppatori le indicazioni e gli strumenti necessari per creare sistemi di intelligenza artificiale Secure-by Design. CoSAI promuoverà un ecosistema collaborativo per condividere metodologie open-source, framework standardizzati e strumenti.
CoSAI riunisce una serie di soggetti interessati, tra cui aziende leader del settore, accademici e altri esperti, per affrontare il panorama frammentato della sicurezza dell’IA. I Premier Sponsor fondatori sono: Google, IBM, Intel, Microsoft, NVIDIA e PayPal. Altri sponsor fondatori sono Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI e Wiz.
CoSAI è un’iniziativa volta a migliorare la fiducia e la sicurezza nell’uso e nella diffusione dell’IA.
L’ambito di CoSAI comprende la costruzione, l’integrazione, la distribuzione e il funzionamento dei sistemi di intelligenza artificiale in modo sicuro, concentrandosi sulla mitigazione di rischi quali il furto di modelli, il data poisoning, la prompt injection, lo scaled abuse e gli attacchi all’inferenza.
Il progetto mira a sviluppare misure di sicurezza complete che affrontino i rischi classici e unici dei sistemi di AI. CoSAI è una comunità open-source guidata da un Project Governing Board, che ne promuove e gestisce l’agenda tecnica generale, e da un Technical Steering Committee composto da esperti di AI provenienti dal mondo accademico e dall’industria che supervisionerà i suoi flussi di lavoro.
L’intelligenza artificiale (AI) – sottolinea il team – sta rapidamente trasformando il nostro mondo e possiede un immenso potenziale per risolvere problemi complessi. Per garantire la fiducia nell’AI e guidare uno sviluppo responsabile, è fondamentale sviluppare e condividere metodologie che mantengano la sicurezza in primo piano, che identifichino e attenuino le potenziali vulnerabilità dei sistemi AI e che portino alla creazione di sistemi Secure-by-Design.
Attualmente la sicurezza dell’AI e delle applicazioni e dei servizi di AI è un’attività frammentata. Gli sviluppatori sono alle prese con un mosaico di linee guida e standard spesso incoerenti e frammentati. Valutare e mitigare i rischi specifici e prevalenti dell’AI senza best practice chiare e approcci standardizzati è una sfida significativa anche per le organizzazioni più esperte.
Con il sostegno dei leader e degli esperti del settore, CoSAI è pronta a fare passi da gigante nella definizione di pratiche standardizzate che migliorino la sicurezza dell’AI e creino fiducia tra le parti interessate a livello globale.
“L’istituzione di CoSAI è nata dalla necessità di democratizzare le conoscenze e i progressi essenziali per l’integrazione e l’implementazione sicura dell’AI“, ha dichiarato David LaBianca, Google, co-presidente del consiglio direttivo di CoSAI. “Con l’aiuto di OASIS Open, non vediamo l’ora di continuare questo lavoro e la collaborazione tra aziende leader, esperti e mondo accademico“.
“Siamo impegnati a collaborare con organizzazioni all’avanguardia nella tecnologia AI responsabile e sicura. Il nostro obiettivo è eliminare la ridondanza e amplificare il nostro impatto collettivo attraverso partnership chiave che si concentrano su argomenti critici“, ha dichiarato Omar Santos, Cisco, co-presidente del consiglio direttivo di CoSAI. “In CoSAI, sfrutteremo le nostre competenze e risorse congiunte per accelerare lo sviluppo di solidi standard e pratiche di sicurezza dell’AI che andranno a beneficio dell’intero settore“.
Inizialmente, CoSAI formerà tre gruppi di lavoro, con l’intenzione di aggiungerne altri nel tempo:
- Software supply chain security for AI systems: per migliorare la composizione e la tracciabilità della provenienza per proteggere le applicazioni di AI.
- Preparing defenders for a changing cybersecurity landscape: per affrontare gli investimenti e le sfide di integrazione nell’AI e nei sistemi classici.
- AI security governance: per sviluppare best practice e framework di valutazione del rischio per la sicurezza dell’AI.
Ulteriori informazioni sono disponibili sul sito della Coalition for Secure AI (CoSAI).