Ciao a tutti! Eccoci arrivati all’episodio 36 di Le voci dell’AI.
La settimana scorsa, nell’episodio 35, abbiamo parlato di studenti, carriere scolastiche, prospettive di lavoro, nell’era dell’AI e di qual è il punto di vista più costruttivo da cui guardare al futuro.
Questa settimana invece parliamo di competizione nell’era dell’AI e delle implicazioni per startup e capitalisti di ventura.
Quando vedrete questo video, probabilmente avrete letto fino allo sfinimento delle nuove funzionalità introdotte dal team OpenAI durante la loro prima conferenza dedicata agli sviluppatori: l’annuncio del nuovo modello di ChatGPT-4 Turbo, di una context window da 128.000 token, la possibilità di creare versioni customizzate di ChatGPT aprono le porte all’uso dell’AI generativa per una serie di casi d’uso fino a ieri intoccabili.
Di conseguenza, da lunedì scorso una porzione significativa dell’industria dell’informatica si sta chiedendo: cosa posso creare con le nuove capacità annunciate da OpenAI? Ecco, una domanda molto più pressante per i fondatori di qualunque start-up al mondo e per gli investitori di queste start-up dovrebbe essere: cosa mi rimane per differenziarmi dai miei concorrenti? Io non dormirei la notte pensando a questa cosa.
Cerchiamo di capire le implicazioni di quello che è stato annunciato, ma prima di andare avanti facciamo un chiarimento importantissimo.
Ogni volta che OpenAI annuncia qualcosa di nuovo, qualcuno commenta online dicendo una cosa tipo: ecco, con questa nuova funzionalità OpenAI ha mandato in bancarotta dieci, cento mille start-up. Ma questo è un commento ridicolo.
Se una start-up ha basato il proprio business sulla vendita di una funzionalità che – è ovvio – OpenAI offrirà a un certo punto, nessuno può essere colpevolizzato, eccetto i fondatori di quella start-up e i loro investitori.
Le funzionalità nella roadmap di OpenAI si dividono in almeno quattro categorie.
La prima categoria è fatta di funzionalità ovvie che l’azienda non ha ancora avuto il tempo di sviluppare e che chiunque dovrebbe aspettarsi arrivino in qualunque momento la settimana prossima, il prossimo trimestre. A questa categoria appartengono funzionalità che estendono tutto quello che ChatGPT sa già fare o che combinano tutto quello che ChatGPT sa già fare per dare corpo a una nuova capacità. Per esempio, se oggi i modelli di OpenAI sono in grado di generare testo e voce sintetica, è ovvio che a un certo punto ChatGPT combinerà queste due capacità e diventerà in grado di cantare, all’inizio sulla base di musica che già esiste oggi e poi, sulla base di musica sintetica assunto che OpenAI produca un modello in grado di generare musica sintetica.
La seconda categoria è composta di funzionalità ovvie che dipendono dalla disponibilità di unità di computer in grado di soddisfare fare una domanda a livello planetario. Per esempio, è ovvio che appena possibile, OpenAI permetterà agli utenti di attivare la vista e la voce per queste nuove versioni customizzate di ChatGPT che sono state annunciate la settimana scorsa. Oggi questa funzione non è disponibile, ma è probabilmente un problema di risorse e non una limitazione tecnica. Per predire quando queste funzionalità saranno rilasciate è importante capire nel dettaglio la produzione e distribuzione delle GPU a livello mondiale, l’impatto geopolitico su quella produzione e distribuzione e i trend di adozione e consumo di queste GPU a livello del cloud provider, Microsoft Azure, in questo caso e molte altre cose.
La terza categoria è fatta di funzionalità che dipendono da un’implementazione tecnica difficile da realizzare, giacché il successo a livello tecnico non è garantito. Anche se queste funzionalità sono ovvie, il loro rilascio è incerto. Ad esempio, è incerto quando OpenAI rilascerà una versione di ChatGPT in grado di supportare una context window di un milione di token. Le ricerche hanno dimostrato che i modelli di AI generativa riescono a recuperare le informazioni che sono al principio e alla fine di una context window particolarmente ampia, ma fanno una fatica enorme a recuperare le informazioni che sono nel mezzo, e quindi tutto sta nella capacità di OpenAI di trovare una soluzione creativa al problema.
La quarta categoria è fatta di funzionalità che dipendono da tecnologie nuove che l’azienda sta sviluppando, di cui non sappiamo nulla e pertanto sono impossibili da prevedere. Per esempio, OpenAI potrebbe avere trovato un metodo per eliminare le cosiddette allucinazioni di cui soffrono i Large Language Model.
Per chiudere il cerchio, se una start-up si è focalizzata sulle prime due categorie che abbiamo appena descritto, è ovvio che avrà vita cortissima. Ma non è certo colpa di OpenAI, è colpa di uno o più fondatori poco lungimiranti e di una serie di investitori che dovrebbero assumere più esperti in tecnologia e meno esperti in capitali di ventura.
Ora niente di tutto quello che abbiamo detto fino ad ora ha a che fare con la competizione di cui voglio parlarvi oggi.
Quella vera, quella che sta per arrivare, quella che abbiamo intravisto durante la conferenza di OpenAI.
Quello che abbiamo intravisto è questo: OpenAI sta lavorando per dare a tutti il potere di dare vita a un’idea. E se pensate che l’azienda abbia finito in questa sua missione con gli annunci della settimana scorsa, vi invito a ricredervi.
Infatti, vi invito a pensare che abbiano appena cominciato e questo si capisce in parte dalla scelta di parole di Sam Altman durante l’evento. Vi invito a pensare che l’obiettivo finale di OpenAI sia quello di permettere a qualunque essere umano di creare applicazioni di qualunque tipo e con qualunque funzionalità usando solo il linguaggio naturale.
Dall’introduzione di ChatGPT l’anno scorso avrete certamente sentito parlare dell’idea dell’ingegnere del software moltiplicato dieci volte, cento volte, mille volte, cioè dell’idea che l’AI generativa sia in grado di potenziare le capacità degli sviluppatori di software oltre il limite di un essere umano.
Il problema è che nessuno parla mai della competizione moltiplicata diecimila volte.
Ecco quello che sta per succedere: qualsiasi nuovo software venga rilasciato sul mercato, anche uno pubblicato appena un’ora fa, potrà essere replicato da un modello di intelligenza artificiale dotato di visione.
Basterà prendere uno screenshot dell’interfaccia utente e passarlo a un modello di AI generativa dotato di visione.
Quel modello produrrà una copia non funzionante – non funzionante – dell’interfaccia utente nello screenshot, replicando gli elementi di dell’interfaccia in qualunque linguaggio vogliate, Swift o HTML+CSS+JavaScript.
Anche se quegli elementi rappresenteranno solo una facciata di un vero programma, il modello di AI potrà collegarli insieme, come fanno oggi le applicazioni che generano mockup, applicazioni come Adobe XD, Sketch o Figma. I primi esempi di questo approccio stanno già circolando tra la comunità AI attraverso progetti open source.
A un certo punto, però, questi modelli AI acquisiranno la capacità di interagire con il software come esseri umani.
Messo di fronte a una applicazione rilasciata dall’azienda X appena un’ora fa il modello di intelligenza artificiale comincerà ad esplorare come funziona l’applicazione esaminando le varie funzionalità, esattamente come un motore di ricerca esplora Internet e una volta terminata l’esplorazione delle funzionalità, il modello di AI avrà un’idea piuttosto precisa di come ricreare l’app che è stata rilasciata un’ora fa sia nell’aspetto, come abbiamo detto prima, che nel funzionamento. L’implementazione delle funzionalità non sarà identica a quella dell’app originale, ma il risultato sarà piuttosto simile o identico.
In altre parole, un modello di AI in grado di vedere ed esplorare un software qualsiasi non è diverso da uno sviluppatore umano che studia un’applicazione fatta da qualcun altro e ne crea un clone.
All’inizio questa AI produrrà solo prototipi approssimativi. Col tempo diventerà sempre più competente man mano che la comunità AI si cimenterà nel fine tuning di modelli creati per essere esperti sviluppatori di software e design.
Questo scenario non è così lontano come credete.
Abbiamo già una serie di nuovi modelli di AI ad accesso aperto come LLaVA-Plus che arrivano con le capacità di base per fare tutto quello che ho appena descritto.
E quindi la domanda che dovrebbe tenere il mondo IT sveglio la notte non è tanto: cosa posso creare con le nuove capacità annunciate da OpenAI, ma: come faccio a competere se il mio software adesso può essere clonato in pochi minuti? Come possiamo ripensare la competizione? In un mondo come quello che ho descritto è possibile ripensare la competizione.
Come abbiamo detto all’inizio questo non è un problema solo per le aziende di software, ma anche per gli investitori come angel o società di capitali di Ventura.
In uno scenario come quello che ho descritto, le competenze tecniche che oggi cerchiamo nei fondatori delle start up hanno lo stesso valore? di più? di meno? Che cosa all’improvviso diventa più importante per ottenere un vantaggio competitivo la distribuzione? il brand? i dati? qual è il rateo delle start-up che arrivano al successo in questo nuovo mondo che ho descritto? sarà ancora una su dieci o diventerà una su diecimila?
E se il rischio cambia in questa maniera, come dovranno cambiare i fondi di investimento per assorbire quel rischio? L’obiezione più tipica a tutto questo è che l’ingegno umano è senza limiti e una volta dotati di questi nuovi superpoteri, gli esseri umani alzeranno l’asticella di ciò che è possibile fare in molte più aree di quelle che oggi abbiamo.
Quindi la competizione non sarà un problema, e forse è vero, ma questa è una visione del futuro che assume che in ognuno di noi ci sia un Leonardo da Vinci, tanti Leonardo da Vinci in erba per niente intimiditi dalla competizione, capaci di trovare la propria strada verso il successo, ognuno costruendo un’idea così eccezionale che nessuno avrà bisogno di copiare gli altri.
Quando finite questo video, guardatevi intorno. Quanti Leonardo da Vinci vedete intorno a voi?
Forse invece di un futuro fatto di tanti Leonardo da Vinci in erba avremo un futuro dove tutto il software del mondo sarà gratuito, non solo quello open source e l’unica cosa che pagheremo sarà l’intelligenza artificiale e il lavoro sintetico.
Okay, ci fermiamo qui per questa settimana.
Come sempre, scrivetemi all’indirizzo di posta elettronica che trovate qui sotto con i vostri commenti, le domande e i suggerimenti per gli argomenti da trattare nei prossimi episodi.
Ciao!
Gent.mo Alessandro,
Seguo con grande interesse le Voci dell’AI.
Vorrei far acquistare un abbonamento a “Synthetic Work” dal mio ufficio, ma noi non possiamo pagare con carta di credito, come posso fare?
La leggo solo io, sono molto indietro in questo ufficio pubblico.
Resto in attesa di un cortese riscontro
cordiali saluti
Alessandra