SAS, società specializzata nelle soluzioni per i dati e l’intelligenza artificiale, in occasione di SAS Innovate ha annunciato l’imminente disponibilità di nuovi prodotti e servizi di trustworthy AI per migliorare l’AI Governance e sostenere la fiducia e la trasparenza dei modelli. Le model card e i nuovi servizi di AI Governance Advisory aiuteranno le organizzazioni a navigare nel panorama dell’AI, mitigando i rischi e aiutandole a perseguire gli obiettivi con maggiore sicurezza, sottolinea l’azienda. SAS ha inoltre pubblicato il Trustworthy AI Life Cycle Workflow, basato sull’AI Risk Management Frameworkl del National Institute of Standards and Technology (NIST).
“I nostri clienti sono entusiasti del potenziale dell’intelligenza artificiale, ma rimangono cauti su quando e come utilizzarla”, ha dichiarato Reggie Townsend, Vice President, SAS Data Ethics Practice. “Si stanno ponendo domande giuste sulla responsabilità e l’etica inerenti all’AI. Il nostro obiettivo è fornire loro gli strumenti e le indicazioni, basate su decenni di esperienza, per integrare l’IA in modo da incrementare la redditività e ridurre al contempo i danni involontari.”
Model card: le etichette informative di una trustworthy AI
Può essere difficile prendere qualcosa di così complesso e sofisticato come un modello di AI e convertirlo in qualcosa di facilmente digeribile per tutti coloro che sono coinvolti nel ciclo di vita dell’AI. Inoltre, con l’approvazione di nuove norme e regolamenti in tutto il mondo, la capacità di comprendere e condividere con le autorità di regolamentazione le prestazioni di un modello sarà fondamentale. Le model card, una funzione di prossima introduzione in SAS Viya, serviranno alle parti interessate in tutto il ciclo di vita dell’IA: dagli sviluppatori ai board director, a trovare valore in un tool dedicato che supporta sia modelli proprietari sia open source.
In uscita a breve, le model card sono meglio descritte come etichette informative per i modelli AI. L’approccio di SAS è quello di autogenerare delle schede per i modelli registrati con contenuti provenienti direttamente dai prodotti SAS, eliminando l’onere di crearle da parte dei singoli utenti. Inoltre, dato che SAS Viya dispone già di un’architettura per la gestione dell’open source, le model card saranno disponibili anche per i modelli open source, a partire da quelli Python.
Le model card evidenziano indicatori come l’accuratezza, la correttezza e la deriva del modello, ovvero il decadimento delle prestazioni al variare delle condizioni. Includono dettagli per la governance come la data dell’ultima modifica del modello, chi vi ha contribuito e chi ne è responsabile, consentendo alle organizzazioni di affrontare internamente le performance anomale del modello.
La sezione sull’utilizzo del modello tratta l’uso previsto, i casi d’uso fuori scope e le limitazioni, che saranno fattori chiave in quanto la trasparenza e la verifica dei modelli diventeranno probabilmente operazioni aziendali regolamentate.
“SAS sta adottando un approccio ponderato per aiutare i clienti a adottare l’AI, concentrandosi su realtà pratiche e sulle sfide dell’implementazione dell’AI in contesti industriali reali”, ha dichiarato Eric Gao, Research Director di IDC. “Le model card saranno preziose per monitorare i progetti di AI e promuoverne la trasparenza.”
Un nuovo gruppo di AI Governance, da SAS
Con la diffusione continua dell’IA, le aziende sono sempre più preoccupate di come utilizzare i loro dati in modo produttivo e sicuro. Per aiutarle nel loro viaggio nei dati e nell’intelligenza artificiale, SAS sta lanciando “AI Governance Advisory”, un servizio a valore aggiunto per i clienti attuali.
SAS AI Governance Advisory aiuterà i clienti a riflettere sul significato della governance nel contesto delle loro organizzazioni. SAS, nel frattempo, ha sperimentato questo servizio e i clienti hanno notato diversi vantaggi:
- Aumento della produttività grazie a un processo decisionale affidabile e distribuito.
- Maggiore fiducia grazie a una migliore responsabilità nell’utilizzo dei dati.
- Capacità di conquistare e mantenere i migliori talenti che richiedono pratiche di innovazione responsabili.
- Aumento del vantaggio competitivo e dell’agilità nel mercato grazie alla “conformità al futuro”.
- Brand value più forte per affrontare i potenziali impatti sulla società e sull’ambiente.
Basarsi sugli standard governativi emergenti
L’anno scorso, il National Institute of Standards and Technology (NIST) degli Stati Uniti ha lanciato un AI Risk Management Framework, diventato uno strumento prezioso per le organizzazioni per progettare e gestire un’IA affidabile e responsabile in assenza di normative ufficiali.
SAS ha creato un flusso di lavoro, il Trustworthy AI Life Cycle, che rende le raccomandazioni del NIST più facili da adottare per le organizzazioni, specificando i ruoli e le aspettative individuali, raccogliendo la documentazione necessaria, delineando i fattori da considerare e sfruttando l’automazione per facilitarne l’adozione. Le organizzazioni si ritrovano così con un modello di produzione e una documentazione che dimostra di aver curato la creazione di un modello corretto e che i loro processi non causino danni.
Il workflow consente alle organizzazioni di documentare le loro considerazioni sull’impatto dei sistemi di IA sulle vite umane. Include fasi per garantire che i training data siano rappresentativi della popolazione interessata e che le previsioni e le prestazioni del modello siano simili tra le classi protette. Queste fasi aiutano a garantire che il modello non stia discriminando o danneggiando gruppi specifici. Inoltre, gli utenti possono controllare che un modello rimanga accurato nel tempo creando attività umane nel ciclo per agire quando è necessaria un’attenzione aggiuntiva.
SAS Trustworthy AI Life Cycle Workflow può essere scaricato da Github SAS Model Manager Resources e sarà presto disponibile attraverso il NIST AI Resource Center.
Ricerca di SAS sulla GenAI
In Italia, sei decision-maker su dieci ritengono che l’Intelligenza Artificiale Generativa migliorerà significativamente l’esperienza dei clienti e sarà un importante driver di innovazione all’interno delle aziende, tanto che il 30% delle aziende ha dichiarato di aver già iniziato a utilizzare in via sperimentale la GenAI, mentre un altro 30% prevede di farlo nei prossimi 12 mesi e un altro 31% entro due anni.
A rivelarlo è un recente studio, condotto all’inizio dell’anno da Coleman Parkes Research Ltd. e sponsorizzato da SAS, che ha intervistato su scala globale e italiana figure decisionali nel campo dell’Intelligenza Artificiale Generativa (GenAI) e dell’analisi dei dati, appartenenti a diversi settori, per comprendere a fondo il percepito e lo stato attuale di queste tecnologie.
I risultati della ricerca indicano che, sebbene le organizzazioni italiane siano entusiaste del potenziale dell’IA generativa nell’aumentare la produttività del business e delle persone, esistono ancora diversi ostacoli che rallentano l’adozione della GenAI.
Solo il 6% dei decision-maker italiani intervistati non ha attualmente piani per adottare la GenAI, a fronte di un 94% che ha già pianificato gli investimenti su questa tecnologia per il prossimo anno.
Tuttavia, solo il 3% degli italiani coinvolti afferma di aver completamente implementato queste tecnologie nei propri processi aziendali.
La ricerca ha identificato diversi ostacoli che rallentano l’adozione della Gen AI in Italia. Anche se, infatti, solo il 18% dei decision-maker ammette una comprensione limitata di questa nuova tecnologia, lo studio ha rilevato che gli intervistati devono fronteggiare diverse altre difficoltà come:
- mancanza di tool appropriati (57%);
- dubbi sull’uso dei dataset, sia interni che esterni (56%);
- complessità nel passare dalla fase concettuale a quella pratica e nel dimostrare i ritorni sugli investimenti (51%), oppure a integrarsi con i sistemi preesistenti in azienda (45%);
- assenza di competenze interne (40%).
Inoltre sono emerse anche diverse preoccupazioni principali legate all’utilizzo della GenAI: la privacy dei dati è una delle maggiori preoccupazioni (79% degli intervistati), seguita dalla security (73%) dalle implicazioni etiche (65%) legate all’utilizzo della tecnologia.
Le preoccupazioni sembrano anche riflettersi nella capacità di governance: solo il 4% dei decision-maker italiani riporta una presenza ben stabilita e attiva di un GenAI governance framework, mentre il numero di intervistati che conferma di avere implementato sistemi di misurazione di bias e rischi associati alla privacy negli LLM è al di sotto del 10%; il 48% infine non ha ancora stabilito una policy d’uso della tecnologia all’interno della propria azienda.