Il Parlamento europeo ha approvato oggi la legge sull’intelligenza artificiale – Artificial Intelligence Act, nota anche come AI Act –, con l’obiettivo di garantire sicurezza e rispetto dei diritti fondamentali e al tempo stesso promuovere l’innovazione in questa nuova frontiera della tecnologia.
I deputati del Parlamento europeo hanno approvato il regolamento frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, e approvato un mese fa dalle commissioni del parlamento stesso, con 523 voti favorevoli, 46 contrari e 49 astensioni.
L’obiettivo dell’AI Act è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di intelligenza artificiale ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’AI sulla base dei possibili rischi e del livello d’impatto.
Le nuove norme mettono fuori legge alcune applicazioni dell’AI che secondo i deputati minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
L’AI Act prevede comunque alcune eccezioni per le forze dell’ordine. In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio: per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.
Nel regolamento dell’AI Act sono inoltre previsti obblighi chiari anche per altri sistemi di intelligenza artificiale ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi AI e a ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono sui loro diritti.
I sistemi AI per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.
Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake“) dovranno essere chiaramente etichettati come tali.
Il Parlamento europeo ha previsto anche misure a sostegno dell’innovazione e delle PMI. I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (i cosiddetti sandbox), in modo che PMI e start-up possano sviluppare sistemi AI innovativi e addestrarli prima di immetterli sul mercato.
Durante il dibattito conclusivo di martedì, il correlatore della commissione per il mercato interno Brando Benifei (S&D, Italia) ha dichiarato: “Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di IA saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’IA“.
Il correlatore della commissione per le libertà civili Dragos Tudorache (Renew, Romania) ha dichiarato: “L’UE ha mantenuto la promessa. Abbiamo collegato per sempre al concetto di intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società. Ci aspetta molto lavoro che va oltre la legge sull’intelligenza artificiale. L’intelligenza artificiale ci spingerà a ripensare il contratto sociale che sta alla base delle nostre democrazie. Insieme ai nostri modelli educativi, ai nostri mercati del lavoro, al modo in cui conduciamo le guerre. La legge sull’IA non è la fine del viaggio, ma piuttosto il punto di partenza per un nuovo modello di governance basato sulla tecnologia. Ora dobbiamo concentrarci per trasformarla da legge sui libri a realtà sul campo“.
Per quanto riguarda le prossime tappe, l’AI Act deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi AI per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
AI Act, il commento di Osborne Clarke
Gianluigi Marino, Head of Digitalisation, Osborne Clarke in Italia ha così commentato la notizia: “L’approvazione del Regolamento sull’Intelligenza Artificiale (AI Act) da parte del Parlamento europeo rappresenta una tappa fondamentale ma non conclusiva dell’iter legislativo. Il testo è disponibile in 24 lingue e le correzioni necessarie per ciascuna versione confluiranno in un corrigendum, la cui approvazione sarà oggetto di un’ulteriore sessione del Parlamento prevista a metà aprile. Una volta completato l’iter parlamentare, anche il Consiglio dell’Ue dovrà votare e adottare formalmente la legge. Sebbene si conoscano già i dettagli del testo, si prevede che non sarà promulgato prima della fine di maggio.
L’applicabilità del testo sarà scaglionata: i primi divieti entreranno in vigore presumibilmente verso la fine dell’anno. Le disposizioni che regolano l’IA per scopi generali – compresi molti dei sistemi di IA generativa che già stanno trasformando il nostro modo di lavorare in numerosi settori – entreranno in vigore nell’estate del 2025, mentre la regolamentazione relativa all’IA ad alto rischio entrerà in vigore nell’estate del 2026. Nel frattempo, a guidarne l’implementazione, ci sarà un flusso continuo di linee guida e materiali correlati, oltre che di standard e codici.
Si tratta di un terreno difficile sul quale si muove una tecnologia complessa e non sono mancate le prime critiche al testo che appare non sempre chiaro, anche nella sua interrelazione con altre aree della regolamentazione digitale. Per le aziende sarà cruciale investire bene questo tempo: capire come la legge sull’IA avrà un impatto sui loro prodotti e servizi, oltre che sulla catena di fornitura, e pianificare con anticipo un’adeguata risposta ai nuovi vincoli vigenti”.
Il commento di Web3 Alliance
Dichiarazione di Andrea De Micheli, Presidente di Web3 Alliance, il primo consorzio italiano che riunisce i player del web 3.0, in merito all’AI Act:
“Oggi abbiamo raggiunto un traguardo importante. L’approvazione dell’AI Act rappresenta, infatti, una conquista in tema di regolamentazione e un nuovo punto di partenza per il mercato dell’Intelligenza Artificiale. Con questo provvedimento l’Unione Europea, per prima, ha dimostrato il suo impegno a tutelare non solo i cittadini ma anche le piccole realtà imprenditoriali.
In questo campo cruciale per il nostro futuro i più importanti interlocutori istituzionali, Stati Uniti e Cina, hanno sostenuto attivamente, con obiettivi differenti, la ricerca applicata e lo sviluppo di intelligenze artificiali proprietarie. All’Unione Europea va sicuramente riconosciuto il merito di avere definito per tempo le regole del gioco. Manca però una visione comune dei Membri volta allo sviluppo di una piattaforma europea di Intelligenza Artificiale, così come già accaduto con successo in passato a partire dalla creazione del World Wide Web fino ad arrivare al primato assoluto nell’aviazione civile con il progetto Airbus, senza considerare i traguardi raggiunti con il più grande acceleratore di particelle del Cern o i maggiori supercomputer oggi disponibili. Questi esempi sono la prova che l’Europa può oggi come in passato ancora scrivere pagine importanti di un futuro che deve appartenerle.
La sua pervasività si sta rivelando come l’agente di una nuova rivoluzione etica, culturale e industriale che modificherà profondamente la nostra società. È importante quindi che le istituzioni riconoscano gli effetti che questo fenomeno porterà in futuro, creando e applicando norme in grado di governarlo ma allo stesso tempo incentivarne gli sviluppi e le applicazioni. Web3 Alliance è favorevole a questa legislazione perché permetterà la crescita sana e trasparente del mercato e la costruzione di un tessuto industriale competitivo e virtuoso; al contempo promuove la necessità di una politica comune di investimento sulla ricerca e sullo sviluppo di soluzioni, competenze e conoscenze volte a rendere indipendente il Mercato Europeo“.