“L’intelligenza artificiale è la programmazione per computer che impara e si adatta. Non può risolvere ogni problema, ma il suo potenziale per migliorare la nostra vita è profondo. In Google utilizziamo l’intelligenza artificiale per rendere i prodotti più utili, dalle e-mail prive di spam e più facili da comporre, all’assistente digitale con cui puoi parlare naturalmente, alle foto che ti fanno venire voglia di divertirti”.
Inizia così il post che Sundar Pichai, ceo di Google, ha pubblicato sul blog della società per spiegare quali sono i principi seguiti dal colosso di Mountain View nello sviluppo dell’intelligenza artificiale.
“Oltre ai nostri prodotti – prosegue – usiamo intelligenza artificiale per aiutare le persone ad affrontare problemi urgenti. Una coppia di studenti delle scuole superiori sta costruendo sensori a intelligenza artificiale per prevedere il rischio di incendi. Gli agricoltori lo utilizzano per monitorare lo stato di salute delle loro mandrie. I medici stanno iniziando ad usare l’intelligenza artificiale per aiutare a diagnosticare il cancro e prevenire la cecità. Questi chiari vantaggi sono il motivo per cui Google investe molto nella ricerca e nello sviluppo dell’Ia e rende le tecnologie dell’intelligenza artificiale ampiamente disponibili agli altri attraverso i nostri strumenti e il codice open-source”.
Ma questo tipo di tecnologia, viste le sue enormi potenzialità solleva molte questioni. Per questo, spiega, come leader del settore Google sente molto la responsabilità degli effetti che potrà avere il suo lavoro. Così Sundar Pichai elenca sette principi ai quali la società vuole ispirarsi. “Non si tratta di concetti teorici, ma di standard concreti che regoleranno attivamente la nostra ricerca e lo sviluppo dei prodotti e influenzeranno le nostre decisioni aziendali”.
Le tavole della legge di Google per l’intelligenza artificiale
Quelle che seguono sono i principi e le intenzioni di utilizzo di intelligenza artificiale che Google ha espresso sul proprio blog.
I principi sono stati pubblicati dopo che Google, in seguito alla forti proteste dei dipendenti, ha annullato il contratto con il dipartimento alla Difesa Usa per un contratto da nove milioni di dollari che prevedeva l’uso di intelligenza artificiale per analizzare le immagini dei velivoli a pilotaggio remoto e identificare gli obiettivi.
Essere socialmente vantaggiosi. L’estensione delle nuove tecnologie tocca sempre di più la società nel suo insieme. I progressi avranno un impatto trasformativo in un’ampia gamma di settori, tra cui assistenza sanitaria, sicurezza, energia, trasporti, industria manifatturiera e intrattenimento. Nel considerare lo sviluppo potenziale e l’utilizzo delle tecnologie dell’Ia, terremo conto di un’ampia gamma di fattori sociali ed economici e procederemo laddove riteniamo che i probabili benefici complessivi superino sostanzialmente i rischi e gli svantaggi prevedibili. Così Google si impegna a rendere facilmente disponibili informazioni accurate e di alta qualità, pur continuando a rispettare le norme culturali, sociali e legali dei paesi in cui operiamo. E continuerà a valutare attentamente quando rendere disponibili le nostre tecnologie su base non commerciale.
Evitare di creare o rafforzare distorsioni inique. Gli algoritmi e i set di dati di intelligenza artificiale possono riflettere, rafforzare o ridurre errori sistematici non corretti. Riconosciamo che distinguere tra pregiudizi equi e pregiudizi ingiusti non è sempre semplice e differisce a seconda delle culture e delle società. Cercheremo di evitare impatti ingiusti sulle persone, in particolare quelli relativi a caratteristiche sensibili quali razza, etnia, genere, nazionalità, reddito, orientamento sessuale, capacità e credo politico o religioso.
Essere costruito e testato per la sicurezza. Continueremo a sviluppare e applicare solide pratiche di sicurezza per evitare risultati indesiderati che possano creare rischi di danni. Progetteremo i nostri sistemi di intelligenza artificiale con la dovuta cautela e cercheremo di svilupparli in conformità con le migliori pratiche nella ricerca sulla sicurezza. Nei casi appropriati, testeremo le tecnologie di intelligenza artifciiale in ambienti con limitazioni e ne monitoreremo il funzionamento dopo la distribuzione.
Siate responsabili nei confronti delle persone. Progetteremo sistemi Ia che forniscano opportunità appropriate di feedback, spiegazioni pertinenti e attrattive. Le nostre tecnologie per l’intelligenza artificiale saranno soggette a un’adeguata direzione e controllo umano.
Integrare i principi di progettazione della privacy. Incorporeremo i nostri principi sulla privacy nello sviluppo e nell’uso delle nostre tecnologie Ia. Offriremo opportunità di notifica e consenso, incoraggeremo le architetture con salvaguardie per la privacy e forniremo adeguata trasparenza e controllo sull’uso dei dati.
Sostenere elevati standard di eccellenza scientifica. L’innovazione tecnologica è radicata nel metodo scientifico e nell’impegno per un’indagine aperta, il rigore intellettuale, l’integrità e la collaborazione. Gli strumenti dell’intelligenza artificiale hanno il potenziale di aprire nuovi orizzonti di ricerca e conoscenza scientifica in settori critici come la biologia, la chimica, la medicina e le scienze ambientali. Aspiriamo a standard elevati di eccellenza scientifica mentre lavoriamo per progredire nello sviluppo dell’intelligenza artificiale.
Collaboreremo con una serie di parti interessate per promuovere una leadership ponderata in questo settore, sulla base di approcci scientificamente rigorosi e multidisciplinari. E condivideremo responsabilmente la conoscenza dell’intelligenza artificiale pubblicando materiali didattici, migliori pratiche e ricerche che consentano a più persone di sviluppare applicazioni utili per l’intelligenza artificiale.
Metteremo a disposizione i prodotti per usi conformi a questi principi. Molte tecnologie sono destinate a molteplici usi. Lavoreremo per limitare le applicazioni potenzialmente dannose o abusive. Durante lo sviluppo e l’implementazione delle tecnologie dell’Ia, valuteremo gli usi probabili alla luce dei seguenti fattori:
Scopo e uso principali: scopo principale e probabile uso di una tecnologia e di un’applicazione, compreso il grado di correlazione o di adattabilità della soluzione a un uso nocivo.
Natura e unicità: se mettiamo a disposizione una tecnologia unica o più generale.
Scala: se l’uso di questa tecnologia avrà un impatto significativo.
Natura del coinvolgimento di Google: se stiamo fornendo strumenti generici, integrando strumenti per i clienti o sviluppando soluzioni personalizzate.
Applicazioni di intelligenza artificiale che non perseguiremo. Oltre agli obiettivi di cui sopra, non progettiamo né installiamo l’Ia nelle seguenti aree di applicazione: Tecnologie che causano o possono causare un danno globale. In caso di rischio materiale di danni, procederemo solo se riteniamo che i benefici siano sostanzialmente superiori ai rischi e se incorporiamo adeguati vincoli di sicurezza. Armi o altre tecnologie il cui scopo principale o la cui applicazione è provocare o agevolare direttamente le lesioni alle persone. Tecnologie che raccolgono o utilizzano informazioni per la sorveglianza in violazione di norme accettate a livello internazionale. Tecnologie il cui scopo contravviene ai principi ampiamente accettati del diritto internazionale e dei diritti umani. Vogliamo essere chiari sul fatto che, mentre non stiamo sviluppando l’intelligenza artificiale per l’uso militare, continueremo a lavorare con i governi e i militari in molti altri settori. Questi includono la sicurezza informatica, l’addestramento, il reclutamento militare, l’assistenza sanitaria ai veterani e le attività di ricerca e salvataggio. Queste collaborazioni sono importanti e cercheremo attivamente altri modi per aumentare il lavoro critico di queste organizzazioni e mantenere al sicuro i membri del servizio e i civili.