“L’UE deve garantire parità di accesso ai player e le aziende svelare le fonti utilizzate dagli LLM per assicurare uno sviluppo dell’IA sicuro”: Silvia Speranza, Regional Vice President di Appian Italia, spiega la visione di Appian sull’intelligenza artificiale.
Il contesto Europeo
L’Europa si è posta all’avanguardia nella regolamentazione sull’IA grazie all’EU AI Act, la prima legge di questo tipo al mondo completa e approvata all’unanimità dagli Stati membri dell’UE il 21 maggio 2024. All’interno del quadro normativo dell’UE sono stati identificati quattro livelli di rischio: inaccettabile, elevato, limitato e minimo, oltre a una categoria aggiuntiva per l’IA relativa a scopi generici. Il nuovo regolamento entrerà in vigore tra due anni e richiederà alle aziende di rispettare una serie di requisiti di sicurezza, trasparenza e qualità a seconda del livello di rischio associato alle loro applicazioni di intelligenza artificiale.
L’EU AI Act è considerato più restrittivo in merito alla regolamentazione dell’IA rispetto agli approcci adottati da altre potenze globali come Stati Uniti e Regno Unito. Tuttavia, alcuni dei principali Stati membri dell’UE e una percentuale significativa di aziende del settore in Europa preferiscono un approccio normativo più morbido che consenta loro di competere in modo più efficace nel mercato globale dell’IA.
Le restrizioni introdotte dalla legge non entreranno in vigore fino a maggio 2025, con i grandi leader tecnologici che otterranno un’ulteriore proroga di 24 mesi, con la possibilità, quindi, di potersi conformare alla legislazione entro maggio 2027.
L’approccio Appian
L’Europa gode attualmente, in un certo senso, di un “vantaggio” sull’intelligenza artificiale, perché sta facendo chiarezza sulla regolamentazione, un aspetto cruciale per l’ulteriore sviluppo di questa tecnologia. Le aziende hanno bisogno di chiarezza su come sviluppare e utilizzare l’IA in modo sicuro e su come affrontare le sfide legate alla proprietà e alla privacy dei dati.
Non di meno, un’area in cui il regolamento potrebbe essere rafforzato riguarda la garanzia di condizioni di parità per i player dell’intelligenza artificiale. Attualmente, il dibattito globale sulla governance dell’IA è in gran parte dominato dai grandi giganti della tecnologia e questo deve cambiare se si vuole incoraggiare un’innovazione equa e responsabile.
Un altro aspetto fondamentale dell’evoluzione dell’intelligenza artificiale è legato al modo in cui le organizzazioni utilizzano i dati per alimentarne gli algoritmi: questi dati devono essere protetti e riconosciuti come preziosi; essi meritano il giusto riconoscimento. Ciò significa proteggere i diritti dei proprietari e dei creatori dei dati e garantire la riservatezza di questi ultimi, una priorità assoluta per i regolatori di tutto il mondo.
Per proteggere la privacy dei dati e la proprietà intellettuale nell’era dell’intelligenza artificiale, i governi devono introdurre disposizioni normative come la divulgazione obbligatoria delle fonti utilizzate per addestrare i modelli LLM (Large Language Model), il consenso e il compenso per l’uso di informazioni protette da copyright e di dati privati.
I nostri partner e i nostri clienti stanno dimostrando un grande interesse per l’approccio e l’offerta AI di Appian, vista come un nuovo acceleratore dei processi che stanno già utilizzando con Appian o come catalizzatore per la realizzazione di nuovi casi d’uso. Lo sfruttamento e l’utilizzo protetto dei dati, grazie al nostro data fabric, la gestione integrata della nuova conoscenza ricavata dall’IA direttamente nei processi automatizzati da Appian, e la possibilità di velocizzare il disegno delle applicazioni portano velocemente a riscontri concreti, in condizioni di sicurezza e protezione dei propri dati.
In particolare, per quanto riguarda la sicurezza e la privacy dei dati voglio ricordare che Appian sviluppa le nuove funzionalità tenendo come riferimento la private AI, per cui i dati dei clienti non vengono mai condivisi al di fuori del perimetro di conformità di Appian Cloud, non vengono mai addestrati i modelli Appian sui dati dei clienti, né vengono condivisi i modelli dei clienti con altre organizzazioni, per cui i dati rimangono sempre sotto il controllo del cliente. Abbiamo anche predisposto servizi appositi per supportare i nostri clienti in questo percorso e velocizzare l’adozione.