Il Consiglio d’Europa ha adottato il primo trattato internazionale giuridicamente vincolante volto a garantire il rispetto delle norme giuridiche in materia di diritti umani, democrazia e Stato di diritto nell’utilizzo dei sistemi di intelligenza artificiale (IA).
Il trattato, aperto anche ai paesi non europei, stabilisce un quadro giuridico che copre l’intero ciclo di vita dei sistemi di IA e affronta i rischi che tali sistemi potrebbero presentare, promuovendo al contempo un’innovazione responsabile. La convenzione adotta un approccio basato sui rischi alla progettazione, allo sviluppo, all’utilizzo e alla disattivazione dei sistemi di IA, che richiede un attento esame di tutte le potenziali conseguenze negative legate all’utilizzo dei sistemi di IA.
La Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto è stata adottata a Strasburgo durante l’incontro ministeriale annuale del Comitato dei Ministri del Consiglio d’Europa, che riunisce i ministri degli Affari esteri dei 46 Stati membri dell’Organizzazione.
La Segretaria generale del Consiglio d’Europa, Marija Pejčinović, ha dichiarato: “La Convezione quadro sull’intelligenza artificiale è un trattato globale unico nel suo genere, che assicurerà che l’intelligenza artificiale rispetti i diritti delle persone. È una risposta alla necessità di disporre di una norma di diritto internazionale sostenuta da Stati di diversi continenti uniti da valori comuni, che consenta di trarre vantaggio dall’intelligenza artificiale, riducendo al contempo i rischi che questa presenta. Con questo nuovo trattato, intendiamo assicurare un utilizzo responsabile dell’IA che rispetti i diritti umani, la democrazia e lo Stato di diritto”.
La convenzione è il risultato di due anni di lavoro svolto da un organismo intergovernativo, il Comitato sull’intelligenza artificiale (CAI), che ha riunito, allo scopo di redigere il trattato, i 46 Stati membri del Consiglio d’Europa, l’Unione europea e 11 Stati non membri (Argentina, Australia, Canada, Costa Rica, Giappone, Israele, Messico, Perù, Santa Sede, Stati Uniti d’America e Uruguay), nonché rappresentanti del settore privato, della società civile e del mondo accademico, che hanno partecipato in qualità di osservatori.
Il trattato copre l’utilizzo dei sistemi di IA nel settore pubblico, comprese le aziende che operano per suo conto, e nel settore privato. La convenzione prevede per le parti due modalità per conformarsi ai suoi principi e obblighi nel quadro della regolamentazione del settore privato: le parti possono scegliere di essere sottoposte direttamente alle disposizioni applicabili della convenzione o, in alternativa, prendere altre misure per conformarsi alle disposizioni del trattato rispettando appieno i loro obblighi internazionali in materia di diritti umani, democrazia e Stato di diritto. Questo approccio risulta necessario a fronte delle differenze esistenti nei sistemi giuridici di tutto il mondo.
La convenzione stabilisce requisiti di trasparenza e controllo adattati ai contesti e ai rischi specifici, tra cui l’identificazione dei contenuti generati dai sistemi di IA. Le parti dovranno adottare misure per identificare, valutare, prevenire e attenuare i possibili rischi e valutare la necessità di una moratoria, di un divieto o di altre misure appropriate riguardanti l’utilizzo di sistemi di IA laddove tale utilizzo potrebbe presentare rischi incompatibili con le norme in materia di diritti umani.
Dovranno inoltre determinare le responsabilità e stabilire l’obbligo di rendere conto in caso di impatto negativo, garantire che i sistemi di IA rispettino l’uguaglianza, compresa quella di genere, e assicurare il divieto di discriminazione e la protezione della privacy. Inoltre, le parti che aderiscono al trattato dovranno assicurare la disponibilità di vie di ricorso e garanzie procedurali per le vittime di violazioni dei diritti umani legate all’utilizzo di sistemi di intelligenza artificiale. Le persone che interagiscono con un sistema di IA devono, ad esempio, essere informate del fatto che stanno interagendo con un sistema di questo tipo.
In relazione ai rischi per la democrazia, il trattato richiede alle parti di adottare misure per assicurare che i sistemi di IA non siano utilizzati per compromettere le istituzioni e i processi democratici, tra cui il principio di separazione dei poteri, il rispetto dell’indipendenza giudiziaria e l’accesso alla giustizia.
Le parti aderenti alla convenzione non saranno tenute ad applicare le disposizioni del trattato alle attività riguardanti la protezione degli interessi di sicurezza nazionale, ma dovranno garantire che tali attività siano condotte nel rispetto delle istituzioni e dei processi democratici e del diritto internazionale. La convenzione non si applicherà alle questioni di difesa nazionale né alle attività di ricerca e sviluppo, salvo nei casi in cui il test dei sistemi di IA potrebbe interferire con i diritti umani, la democrazia e lo Stato di diritto.
Per assicurare un’attuazione efficace, la convenzione istituisce un meccanismo di monitoraggio sotto forma di Conferenza delle parti.
Infine, la convenzione richiede a ogni parte di istituire un meccanismo di controllo indipendente per controllare la conformità alla convenzione, come anche di sensibilizzare il pubblico, stimolare un dibattito pubblico informale e tenere consultazioni multilaterali su come utilizzare la tecnologia di intelligenza artificiale. La convenzione quadro sarà aperta alla firma a Vilnius (Lituania) il 5 settembre, in occasione di una conferenza dei ministri della Giustizia.