Le Voci dell’AI – Episodio 33: Come l’AI generativa influenza i nostri comportamenti?

Ciao a tutti! Siamo arrivati all’episodio 33 di Le Voci dell’AI.

La settimana scorsa abbiamo parlato di come la nuova capacità di GPT-4 di vedere le immagini possa sbloccare opportunità di business e potenzialmente trasformare aree come il supporto al cliente e la formazione interna.

Oggi ci spostiamo più in alto e diamo un’occhiata a come l’AI generativa sta influenzando il modo in cui ci comportiamo sia come individui che come lavoratori, come aziende e alla fine, probabilmente come società.

Le dinamiche di mercato stanno cambiando rapidamente ed è importante prestarvi attenzione invece di essere focalizzati esclusivamente su questa o quella funzione o su questa o quella opportunità specifica.

Cominciamo da un punto fondamentale: tutti apprezzano i Large Language model come GPT-4, ma nessuno vuole più alimentarli gratuitamente.

Una dopo l’altra tutte le aziende di contenuti su Internet stanno sbarrando l’accesso ai propri dati c’è chi chiede somme insostenibili per le piccole e medie imprese per accedere alle proprie interfacce di programmazione, come ad esempio Reddit o X.

Chi vieta la possibilità di fare lo screening dei contenuti, come ad esempio la BBC, c’è chi blocca il consumo dei dati attraverso il protocollo RSS, come ad esempio X.

Queste decisioni hanno ripercussioni profonde sul modo in cui ricerchiamo, impariamo e avanziamo come società.

Nel mio caso, per esempio, per più di venti anni ho usato il protocollo RSS per assorbire e ricercare enormi quantità di dati e posso confermare che è sempre più difficile accedere alle informazioni.

L’analisi di quelle informazioni che richiedeva secondi prima dell’avvento dell’AI generativa, ora richiede ore o giorni e in alcuni casi è diventata un’attività insostenibile.

In questa situazione perdiamo tutti un principio fondamentale che ha reso Internet la risorsa eccezionale che è oggi. È l’accesso aperto e questo accesso aperto si sta sgretolando per avidità o per paura, le due grandi emozioni che muovono il mondo.

Le piattaforme di contenuti mosse dall’avidità si sentono autorizzate a usare un modello di AI generativa che è stato sviluppato a partire da un dataset contribuito dagli individui di tutto il pianeta, pagando venti dollari al mese o meno nel caso dei modelli aperti come LLama, non pagando assolutamente nulla.

Eppure, queste piattaforme vogliono essere compensate per l’uso dei propri contenuti, per rendere quel modello di AI generativa ancora migliore.

L’ironia della situazione è che in alcuni casi il contenuto di queste piattaforme non è stato prodotto dai dipendenti dell’azienda che gestisce la piattaforma: è stato prodotto dalle persone che usano la piattaforma, gli utenti.

Eppure, nessuno di questi utenti vedrà mai una percentuale dei profitti realizzati dalla società che gestisce la piattaforma in caso quest’ultima venisse pagata per l’accesso ai dati da aziende come OpenAI.

In più, nessuna delle piattaforme di contenuti che sta chiudendo le porte ai fornitori di AI ha consultato i propri utenti prima di prendere una decisione in merito.

L’obiezione più ovvia a questo ragionamento è il fatto che la società che controlla la piattaforma investe nell’infrastruttura che ospita i contenuti degli utenti e quindi deve ritornare su quell’investimento.

Il contro-argomento è che quella stessa società già ottiene un profitto dai contenuti che ospita, attraverso la pubblicità, la vendita dei profili degli utenti e vari altri meccanismi.

Alla fine, quello che startup come OpenAI hanno ampiamente dimostrato è che quello che veramente è prezioso è il contenuto creato dagli utenti, non la piattaforma che ospita quel contenuto.

Ora il punto chiave è l’attitudine di queste aziende che modellano il proprio business sul principio che ospitare i contenuti creati da terze parti le autorizza a diventarne proprietarie.

Questa attitudine è la stessa che oggi incoraggia le piattaforme di contenuti a fare il fine tuning dai propri modelli di AI generativa usando i nostri contenuti, senza chiedere il permesso in un modo chiaro e comprensibile.

Immaginate un servizio come AWS avere questa attitudine riguardo ai contenuti caricati sui propri server dai clienti di tutto il mondo.

In realtà, forse non serve nemmeno immaginare. Forse stiamo già andando in quella direzione.

Di solito questa attitudine si ritorce contro le piattaforme di contenuti troppo avide. Gli utenti che contribuiscono in maniera attiva si sentono traditi e migrano altrove non appena il mercato offre un’alternativa. La piattaforma che è stata troppo avida rimane con un mucchio di utenti passivi che non producono contenuto di valore, spingendo la piattaforma verso una spirale irreversibile che porta alla morte dell’azienda dopo alcuni anni.

Questo succede di solito, ma oggi è possibile che anche le piattaforme più avide rimangano sul mercato per un periodo più lungo del solito.

Come? Ironia dell’ironia, grazie ai Large Language Model che già abbiamo oggi, questi modelli di AI possono essere usati per generare contenuti sintetici abbastanza buoni abbastanza a lungo da permettere a una piattaforma di contenuti di sopravvivere anche senza una forza motrice umana.

Alla fine, però, i creatori umani che si sono allontanati trovano una nuova piattaforma in cui investire la propria fiducia e il proprio tempo, e quella nuova casa diventa un concorrente con cui confrontarsi.

Cambiamo marcia e parliamo delle piattaforme di contenuti mosse dalla paura.

Le piattaforme di contenuti mosse dalla paura si sentono autorizzate a usare un modello di AI generativa che è stato sviluppato a partire da un dataset contribuito dagli utenti di tutto il pianeta per generare romanzi, fotografie, disegni, dipinti, trame di libri, sceneggiature di film e così via.

Tutti contenuti digitali da cui è possibile trarre un profitto direttamente con un compenso monetario o indirettamente, attraverso un riconoscimento dell’expertise da parte della società e un conseguente accrescimento dello status di chi rilascia il contenuto.

Al tempo stesso, però, queste piattaforme non apprezzano che i propri contenuti vengano copiati e usati da altri per competere e quindi bloccano l’accesso ai dati o lo rendono molto difficoltoso. Nella maggior parte dei casi, il plagio che preoccupa questo tipo di piattaforme di contenuti non porta alla pubblicazione di un libro non autorizzato che poi diventa un best seller del New York Times. Magari il contenuto plagiato viene visto solo da una manciata di persone su un’altra piattaforma, ma la paura è grande abbastanza per giustificare un uso asimmetrico dei modelli di AI generativa.

E qui arriviamo a un altro punto chiave di questa conversazione.

Oltre venti anni fa, pubblicavo, un progetto online chiamato virtualization.info. Indubbiamente quel progetto ha proiettato la mia carriera a livello internazionale e ha influenzato il mio percorso.

Fino a questo preciso momento in cui registro questo video all’epoca, qualcuno ebbe la brillante idea di copiare sia il nome del progetto che il contenuto con una tecnologia molto più rudimentale dell’AI generativa che abbiamo oggi.

Anche se la cosa era irritante e non ha mai impattato il successo economico del mio progetto e non ha mai ingannato più di una manciata di lettori rispetto ai milioni che visitavano il sito regolarmente. In risposta a quel tentativo di plagio non ho mai pensato di limitare l’accesso ai contenuti, perché non era il modello di business che ritenevo giusto per quel progetto.

Cosa sarebbe successo se avessi tenuto virtualization.info dietro un paywall è possibile che virtualization.info non avrebbe raggiunto milioni di lettori, diventando un punto di riferimento mondiale per l’industria della virtualizzazione? È possibile che la mia carriera avrebbe avuto una traiettoria molto diversa, meno di successo.

Qual è il punto di tutto questo? L’AI generativa non è solo un’altra tecnologia che ci farà fare le cose un po’ diversamente, un po’ meglio.

Come abbiamo detto all’inizio l’AI generativa sta influenzando il modo in cui ci comportiamo come individui, come lavoratori, come aziende, e alla fine, probabilmente come società, ci sta costringendo a ripensare cosa sia l’uso equo, cosa sia un prodotto, cosa significhi dire “questo l’ho fatto io”, cosa significhi dire “sono il proprietario di questa cosa”; e tutto questo, a sua volta, ci costringe a ripensare le nostre strategie competitive e i nostri modelli di business.

L’AI generativa non è “business as usual!”

Okay, ci fermiamo qui per questa settimana, come sempre, scrivetemi all’indirizzo di posta elettronica che trovate qui sotto con i vostri commenti, le domande e i suggerimenti per gli argomenti da trattare nei prossimi episodi.

Ciao

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome