Dei timori delle persone riguardo l’ingerenza, i pericoli, l’influenza che l’intelligenza artificiale può avere sul nostro futuro, ancor prima che sul nostro lavoro, se ne parla molto, mettendo in primo piano i temi etici che uno sviluppo di soluzioni basate sull’AI porta con sé. Ne parla anche Thoughtworks, società di consulenza e di sviluppo software internazionale, che ha vagliato direttamente il sentiment delle persone comuni sul tema dell’AI Generativa, sulla loro percezione sul tema e i timori o le aspettative che queste hanno nei confronti di questa nuova tecnologia.
Di AI Generativa se ne parla al punto che anche Papa Francesco, in una inedita decisione per un Pontefice, ha voluto partecipare alla riunione dei G7 proprio per sottolineare la richiesta di un’attenzione particolare a come verrà utilizzata l’AI, soprattutto l’AI Generativa, il livello “pensante” dell’AI sulla quale si possono prospettare scenari altamente positivi per l’umanità, ma potenzialmente anche negativi: dipende dagli scopi per la quale viene utilizzata.
Un sentiment raccolto da Thoughtworks attraverso una ricerca che ha offerto risposte dettagliate su questi temi, coinvolgendo 10.000 consumatori in tutto il mondo, di cui 1.000 in Italia. Lo scopo? Allertare le aziende, in concomitanza della recente approvazione dell’AI Act, di come, oltre alle sanzioni e agli obblighi normativi, sia proprio il mercato, le persone, gli utenti, a puntare gli occhi su chi sviluppa soluzioni basate su AI, potendo arrivare a influenzarne il business.
E Thoughtworks si offre come partner per affiancare gli sviluppatori, interni o esterni alle aziende, a non fare passi falsi nello sviluppo delle loro soluzioni, accompagnandoli nella corretta compliance delle nuove normative europee riguardo l’AI Gen.
L’approvazione dell’AI Act in Europa rappresenta un primo passo, certamente importante, verso una regolamentazione etica dell’intelligenza artificiale. Ma cosa pensano i consumatori di questa normativa? E come possono le aziende adattarsi per essere compliant con le nuove regole?
La ricerca di Thoughtworks ha esplorato il sentiment dei consumatori riguardo all’AI e alla regolamentazione associata. I risultati mostrano che i consumatori riconoscono la necessità di una regolamentazione etica nell’uso dell’AI. In Italia, il 90% degli intervistati sostiene la necessità di normative come l’AI Act, pur manifestando dubbi sull’effettiva applicazione delle stesse da parte delle aziende.
I consumatori richiedono maggiore trasparenza e responsabilità nell’uso dell’AI. Preferiscono acquistare da aziende che utilizzano l’AI in modo etico, per esempio rendendo pubbliche le fonti dei dati utilizzati per addestrare i modelli e implementando meccanismi per tracciare l’origine delle risposte generate. Il che dimostra che l’adesione all’AI Act non è solo una questione di evitare multe, ma anche una strategia per guadagnare la fiducia dei consumatori.
Thoughtworks: supporto alle aziende per l’adesione all’AI Act
“Thoughtworks è un’azienda con una presenza internazionale che include uffici in Cina, Stati Uniti e Sud America, che offre servizi di consulenza e sviluppo software per aiutare le aziende a conformarsi alla normativa, collaborando strettamente con i team di sviluppo dei clienti per garantire che le soluzioni AI implementate siano etiche e conformi alle normative vigenti – spiega Matteo Vaccari, Technical Principal di Thoughtworks Italia -. Proprio affinchè la nostra attività sia il più possibile in linea con le aspettative del mercato e degli utenti dei nostri clienti, abbiamo voluto saggiare cosa pensassero le persone dell’AI Gen e di chi la utilizza per rapportarsi con loro, conducendo una ricerca su un panel di consumatori informati, compresi tra i 20 e i 40 anni, i quali hanno espresso sia interesse che preoccupazione (parimenti al 50%) per l’AI generativa, con timori specifici riguardo alla privacy, ai pregiudizi incorporati nei modelli AI e all’uso etico dei dati”.
Le sfide e le opportunità dell’AI raccolte dal report Thoughtworks
Le preoccupazioni dei consumatori riguardano principalmente la possibilità che l’AI possa essere utilizzata per influenzare decisioni in modo discriminatorio, compromettere la privacy e incorporare pregiudizi.
“Un esempio emblematico riguarda un ricercatore che ha dimostrato come un sistema di selezione del personale possa essere facilmente manipolato inserendo nel curriculum frasi promozionali invisibili all’occhio umano ma leggibili dal sistema AI – informa Vaccari -. Giusto un esempio per sottolineare la necessità di un’attenzione etica nello sviluppo delle soluzioni AI, con le aziende che devono garantire che i loro sistemi siano trasparenti e che le decisioni prese dagli algoritmi non siano discriminatorie”.
Cos’è l’AI Act e cosa comporta
Giusto per fare un breve recap e contestualizzare il tema: l’AI Act, è una normativa europea sull’intelligenza artificiale che entrerà in vigore tra due anni e stabilisce requisiti stringenti per i sistemi AI e le loro modalità di sviluppo.
Si tratta di una legge che punta a proteggere i diritti del pubblico e imporre obblighi alle aziende, includendo la classificazione dei sistemi AI in categorie di rischio (alto, basso e non accettabile), vietando l’uso di sistemi di identificazione automatica delle persone, salvo eccezioni specifiche come la ricerca di persone scomparse o la prevenzione di atti terroristici o altre forme che pssano portare a una catalogazione e discriminazione rispetto a caratteristiche fisiche (razziali, morfologiche o di altro tipo) o comunque invadenti dal punto di vista della privacy.
Il regolamento conferisce ai consumatori il diritto di richiedere spiegazioni sulle decisioni prese dai sistemi AI e di accedere alla documentazione pertinente. In particolare, i sistemi ad alto rischio, come quelli utilizzati in ambito medico, saranno soggetti a rigide verifiche per garantire la sicurezza e l’affidabilità. L’AI Act avrà valenza in tutta Europa e influenzerà tutte le aziende che desiderano operare nel mercato europeo.
Le aziende che non si conformano rischiano pesanti sanzioni, con multe che possono arrivare fino al 7% del fatturato – informa Thoughtworks -. Per questo motivo, è vantaggioso per le aziende mettersi in regola non solo per evitare sanzioni, ma anche perché la trasparenza nel trattamento dei dati e nell’utilizzo dell’AI può aumentare la fiducia dei consumatori.
Thoughtworks prepara chi deve aderire all’AI Act. Ascoltando i timori degli utenti
La normativa si concentra anche sui timori etici legati alla GenAI, come l’uso non autorizzato dei dati, la diffusione di disinformazione, la creazione di contenuti dannosi e i pregiudizi algoritmici. Questi timori, sebbene spesso associati a pratiche scorrette, influenzano anche la percezione delle aziende oneste. Per questo, molte aziende stanno sviluppando sistemi per riconoscere e contrastare la disinformazione e garantire un uso etico dei dati.
“Ma le aziende stesse possono trarre vantaggio da questa normativa, comunicando proattivamente la loro conformità e trasparenza, aumentando così la fiducia e la fedeltà dei clienti – puntualizza Vaccari -. ThoughtWorks offre due tipi principali di servizi. Il primo è lo sviluppo di applicazioni per i clienti, utilizzando le tecnologie più adatte. Ma oltre a questo, un aspetto forse più interessante del nostro lavoro è fornire consulenza ai clienti che hanno un proprio reparto di sviluppo software. Li aiutiamo a sviluppare una strategia per l’uso degli strumenti tecnologici, coprendo aspetti come la progettazione delle applicazioni, i processi di produzione e le misure di sicurezza necessarie per proteggersi da eventuali vulnerabilità. Un’attività di consulenza che viene svolta dai nostri specialisti in tecnologia, privacy e trattamento dei dati. Per quanto riguarda la sicurezza, per esempio, l’uso dell’AI e del machine learning sappiamo che può dare un enorme contributo del miglioramento della difesa contro gli attacchi cyber, consentendo di analizzare grandi quantità di dati per identificare comportamenti sospetti”.
Ma, d’altro canto, queste tecnologie possono essere utilizzate anche dagli aggressori per sondare i sistemi e condurre attacchi più sofisticati.
La ricerca Thoughtworks ha rivelato che il 42% degli italiani si sentirebbe più protetto dai cyber attacchi grazie alla normativa sulla AI, che prevede una maggiore regolamentazione e protezione. Le applicazioni basate su AI presentano una classe di vulnerabilità specifica, poiché i dati e le istruzioni che alimentano l’AI stessa, sono strettamente interconnessi, un aspetto, questo, che deve essere considerato attentamente in ogni progetto.
I numeri evidenziati dalla ricerca Thougtworks sulla percezione dei cittadini verso la GenAI
La survey evidenzia che i cittadini italiani riconoscono la necessità di una regolamentazione della GenAI, con un ruolo importante dei governi nella sua progettazione, sviluppo e implementazione. Il 71% degli italiani ritiene che la legge UE sull’IA li faccia sentire più sicuri, anche se il 49% teme che possa limitare il pieno potenziale dell’AI.
Il 92% concorda che le regolamentazioni governative sono essenziali per responsabilizzare le aziende sull’utilizzo della GenAI, mentre l’82% ritiene che i governi possano promuovere l’equità, l’inclusione e la responsabilità nella progettazione e implementazione dell’intelligenza artificiale generativa tramite la regolamentazione.
Nonostante questo, Thoughtworks ha rilevato che il 93% dei cittadini sostiene che siano necessari miglioramenti alla regolamentazione dell’AI per le imprese, come la piena divulgazione su come la GenAI rispetta le leggi sulla privacy dei dati (55%), una maggiore protezione della proprietà intellettuale e del diritto d’autore (52%) e una migliore formazione, consapevolezza e linee guida per gli utenti (48%). Oltre il 51% non si fida, comunque, dell’attuazione delle normative da parte delle aziende che utilizzano l’AI e il 91% avrebbe dubbi sulla privacy dei propri dati se acquistasse un prodotto o servizio da un’azienda che utilizza GenAI in background. Le principali preoccupazioni comprendono la sicurezza dei dati contro attacchi cyber (42%), la condivisione dei dati con terze parti (46%) e l’accesso non autorizzato ai dati (55%).
Le aziende devono essere trasparenti sull’uso dell’intellugenza artificiale, altrimenti rischiano di perdere clienti. Il 74% dei consumatori preferisce aziende che promuovono trasparenza e equità nell’uso della GenAI. I consumatori ritengono che le normative dovrebbero obbligare le aziende a descrivere chiaramente come vengono utilizzati i dati (64%), garantire che non vengano generati contenuti illegali (56%) e rivelare quando i contenuti sono generati dall’AI Generativa (53%).
Trovare l’equilibrio tra innovazione e regolamentazione
Per quanto riguarda la regolamentazione della GenAI, Thoughtworks ha riscontrato che il 75% dei cittadini ritiene che la protezione delle persone sia più importante rispetto a garantire che non scoraggi l’innovazione delle imprese. In ogni caso, il 73% pensa che le aziende debbano continuare a innovare rapidamente mentre viene sviluppata una regolamentazione governativa efficace. L’83% dei consumatori spera che le aziende possano utilizzare la GenAI per essere più innovative e servire meglio i clienti, attraverso automazione e ottimizzazione (45%), generazione di idee per nuovi prodotti o servizi (43%) e ricerche e feedback degli utenti (33%).
È importante che le aziende utilizzino la tecnologia in modo etico durante l’innovazione, un’aspettativa condivisa dall’88% dei consumatori. Le aziende devono trovare un equilibrio tra l’uso della GenAI per guidare l’innovazione e garantirne un uso responsabile (94%).
Creare un approccio responsabile ed etico all’AI Generativa
Le aziende devono chiaramente delineare come stanno utilizzando la GenAI in modo responsabile. L’89% dei consumatori preferisce aziende che comunichino proattivamente come stanno garantendo una valutazione adeguata dei rischi etici e delle implicazioni sociali della GenAI. Affrontare le preoccupazioni etiche e sociali è essenziale per far sì che i consumatori si sentano a loro agio a lavorare con aziende che utilizzano l’AI. Il 93% dei consumatori ha dubbi etici sull’intelligenza artificiale, inclusi l’uso di dati senza consenso (66%), la disinformazione (59%) e il plagio (46%). Il 92% ha preoccupazioni sociali riguardo alla GenAI.
“Le aziende che non utilizzano l’intelligenza artificiale in modo responsabile rischiano di subire impatti negativi sul proprio business – evidenzia Vaccari di Thoughtworks -, inclusi problemi legali e normativi (60%), danni alla reputazione (64%), insoddisfazione dei clienti (47%) e danni finanziari (49%)“.
Le sensazioni generali verso la l’intelligenza artificiale generativa raccolte da Thoughtworks
I consumatori hanno sentimenti contrastanti nei confronti dell’intelligenza artificiale, soprattutto quella generativa. Il 33% ne è entusiasta, mentre il 40% è in parte entusiasta e in parte preoccupato. Le opinioni sono discordanti riguardo alla propensione all’acquisto di prodotti o servizi da aziende che utilizzano l’AI: il 49% sarebbe più propenso, il 27% non ha preferenze e solo il 16% sarebbe meno orientato a comprare, citando preoccupazioni per la privacy e la sicurezza dei dati. I principali motivi per cui i consumatori sarebbero meno propensi ad acquistare includono la mancanza di tocco umano (64%), preoccupazioni per la privacy dei dati (48%), regolamentazione della GenAI (45%), rischio di attacchi informatici o violazioni (40%) e potenziale di informazioni distorte o inaccurate (38%).
C’è anche il timore che l’AI possa avere un impatto negativo sulla vita dei consumatori, come il furto d’identità (82%), l’inganno o raggiro (79%), la mancanza di regolamentazione (84%) e la violazione della proprietà intellettuale (77%). Nonostante l’80% dei consumatori riconosca che tecnologia e società sono sempre più interconnesse, il 64% teme che la società non riesca a tenere il passo con la rapidità dello sviluppo dell’intelligenza artificiale.