Home Aziende OpenAI Come OpenAI vuole prevenire l’abuso dell’AI in periodo di elezioni

Come OpenAI vuole prevenire l’abuso dell’AI in periodo di elezioni

In vista degli importanti appuntamenti elettorali fissati per quest’anno in diverse aree geografiche, a partire dalle elezioni presidenziali negli Stati Uniti, OpenAI ha condiviso sul proprio blog ufficiale l’approccio che l’azienda intende tenere per evitare potenziali abusi della sua potente tecnologia di intelligenza artificiale.

La protezione dell’integrità delle elezioni – sottolinea OpenAI – richiede la collaborazione di tutti gli attori del processo democratico, e l’azienda vuole assicurarsi che la sua tecnologia – che permette alle persone di migliorare la propria vita quotidiana e di risolvere problemi complessi – non venga utilizzata in modo da compromettere questo processo.

L’azienda afferma di volere assicurarsi che i suoi sistemi di AI siano sviluppati, distribuiti e utilizzati in modo sicuro, poiché è consapevole che, come ogni nuova tecnologia, questi strumenti comportano vantaggi e sfide. Sono anche senza precedenti e per questo OpenAI intende far evolvere il suo approccio man mano che imparerà a conoscere meglio l’utilizzo di tali strumenti.

Nel prepararsi alle elezioni del 2024 nelle più grandi democrazie del mondo, l’approccio di OpenAI è quello di continuare il suo lavoro di sicurezza della piattaforma, elevando le informazioni di voto accurate, applicando policy misurate e migliorando la trasparenza. L’azienda sta conducendo uno sforzo trasversale dedicato alle elezioni, che riunisce le competenze dei suoi sistemi di sicurezza, dell’intelligence sulle minacce, dei team legali, ingegneristici e delle policy per indagare e risolvere rapidamente i potenziali abusi.

OpenAI lavora per anticipare e prevenire abusi rilevanti, come “deepfakes” ingannevoli, operazioni di influenza su larga scala o chatbot che si spacciano per candidati. Prima di rilasciare nuovi sistemi, li sottopone a un red team, coinvolge gli utenti e i partner esterni per ottenere un feedback e crea mitigazioni di sicurezza per ridurre il potenziale di danno. Per anni, l’azienda ha iterato strumenti per migliorare l’accuratezza dei fatti, ridurre i pregiudizi e rifiutare determinate richieste. Questi strumenti costituiscono secondo OpenAI una solida base per il lavoro sull’integrità elettorale. Per esempio, DALL-E è dotato di guardrail per rifiutare le richieste che richiedono la generazione di immagini di persone reali, compresi i candidati.

Le policy di utilizzo di ChatGPT e dell’API – spiega OpenAI – vengono regolarmente perfezionate man mano che l’azienda impara a conoscere il modo in cui le persone utilizzano o tentano di abusare della sua tecnologia.

Nello specifico delle elezioni, OpenAI sta ancora lavorando per capire quanto possano essere efficaci gli strumenti per la persuasione personalizzata. Finché non ne saprà di più, l’azienda non permetterà alle persone di creare applicazioni per campagne politiche e lobbying.

Le persone vogliono sapere e credere che stanno interagendo con una persona, un’azienda o un governo reali. Per questo motivo, OpenAI non permette ai builder di creare chatbot che fingano di essere persone reali (ad esempio candidati) o istituzioni (ad esempio amministrazioni locali).

Inoltre, non permette applicazioni che dissuadano le persone dal partecipare ai processi democratici, ad esempio travisando i processi di voto e le qualifiche (ad esempio, quando, dove o chi ha diritto di voto) o scoraggiando il voto (ad esempio, sostenendo che un voto è privo di significato). Con i nuovi GPT, gli utenti possono segnalare potenziali violazioni.

OpenAI

Una maggiore trasparenza sulla provenienza delle immagini, compresa la possibilità di individuare quali strumenti sono stati utilizzati per produrre un’immagine, può consentire agli elettori di valutare un’immagine con più fiducia e sicurezza su come è stata realizzata. Per questo OpenAI sta lavorando a diverse iniziative in materia di provenienza. All’inizio di quest’anno, implementerà le credenziali digitali della Coalition for Content Provenance and Authenticity, un approccio che codifica i dettagli sulla provenienza dei contenuti utilizzando la crittografia, per le immagini generate da DALL-E 3.

L’azienda sta anche sperimentando un classificatore di provenienza, un nuovo strumento per individuare le immagini generate da DALL-E. I test interni hanno mostrato i primi risultati promettenti, anche quando le immagini sono state soggette a tipi comuni di modifiche. Ha in programma di renderlo presto disponibile ad un primo gruppo di tester, tra cui giornalisti, piattaforme e ricercatori, per ottenere un feedback.

Infine, ChatGPT si sta integrando sempre più con le fonti di informazione esistenti: ad esempio, gli utenti inizieranno ad avere accesso alle notizie in tempo reale a livello globale, con tanto di attribuzione e link. La trasparenza sull’origine delle informazioni e sull’equilibrio delle fonti di notizie può aiutare gli elettori a valutare meglio le informazioni e a decidere da soli di cosa fidarsi.

Negli Stati Uniti, OpenAI sta collaborando con la National Association of Secretaries of State (NASS), la più antica organizzazione professionale nonpartisan per funzionari pubblici. ChatGPT indirizzerà gli utenti a CanIVote.org, il sito web autorevole per le informazioni sul voto negli Stati Uniti, quando verranno poste alcune domande procedurali relative alle elezioni, ad esempio su dove votare. Gli insegnamenti tratti da questo lavoro informeranno l’approccio di OpenAI in altri Paesi e regioni, afferma l’azienda, che condividerà ulteriori informazioni nei prossimi mesi.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php