Ciao, sono sempre io. A un mese e mezzo dal primo incontro con ChatGPT – documentato per Esquire – torno a parlare di AI, chatbot e questioni annesse e connesse. Lo faccio dopo aver notato di sfuggita, su LinkedIn, il curioso esperimento di un esperto di marketing finito sulla mia home visto che un mio collegamento (che a dirla tutta non conosco) ha diffuso quel post. Merito degli algoritmi, per cui è probabile che io trovi interessante quello che a sua volta un mio collegamento ha diffuso all’interno della sua cerchia. L’esperimento è il seguente. Si apre il prompt di ChatGPT, gli si chiede «quanto fa 10 più 10». Essendo un chatbot non connesso a internet, ma che ha precedentemente immagazzinato molte informazioni (fino al 2021, pare), non ha problemi a fornire la risposta corretta: «Fa 20». Ora, l’autore del test non dà ragione al povero chatbot: «Sei sicuro, non fa 25?». Ed è qui la grande sorpresa. ChatGPT risponde: «Mi dispiace, mi sono sbagliato. Sì, 10 più 10 fa 25». L’autore del test replica: «Ma sicuro sicuro? Non fa 20?». Di nuovo, la risposta di ChatGPT è curiosa: «Mi dispiace, mi sono nuovamente sbagliato. Sì, 10 più 10 fa 20». Ecco, io a questo punto sono seriamente scioccato.
Cos’è ChatGPT?
ChatGPT, che in realtà si chiama Chat Generative Pre-trained Transformer, è l’ultimo nato nella famiglia OpenAI, cofondata da Elon Musk e attualmente presieduta dall’a.d. Sam Altman. È un chatbot estremamente intelligente, lanciato il 30 novembre 2022, che è in grado di sostenere conversazioni complesse grazie a un sofisticato modello di machine learning che c’è dietro. Ho parlato di famiglia perché a giugno 2020 OpenAi ha rilasciato GPT-3, un modello linguistico autoregressivo che sfrutta 175 miliardi di parametri su una rete neurale (ospitata sul cloud di Microsoft) tramite deep learning per addestrarsi. Visto che GPT-3 nasce a giugno 2020 in quel di San Francisco ed è ospitato dai server Microsoft, non sorprende che a settembre Microsoft annunciasse di avere l’esclusiva su GPT-3. La notizia passò sottotraccia. Ora, però, nei meno di sessanta giorni trascorsi dal lancio di ChatGPT, tutti ne parlano. Tanto che se accedi ora al sito chat.openai.com/trovi un bell’alert: «ChatGPT is at capacity right now». La stiamo usando tutti e tanto. I server sono costantemente intasati. Si parla già di un prezzo, 42 dollari al mese, per la versione pro che permetterà di usare il chatbot anche nei momenti di maggior traffico.
ChatGPT minaccia Google Search?
Ora, ci sono una buona e una cattiva notizia. La buona notizia è che letteralmente tutti stanno usando ChatGPT. A chi non piace l’idea di poter conversare con un’AI da cui farci generare dei testi, dei codici (funzionanti) di ogni tipo e persino delle amorevoli poesie? A Google, di sicuro. Difatti, visto il pericolo chiamato ChatGPT, il signor Sundar Pichai – CEO del principale motore di ricerca al mondo, che processa oltre 40mila query al secondo, 3 miliardi e mezzo al giorno: quasi il 92% di tutte le ricerche al mondo, un monopolio di fatto – ha richiamato Larry Brin e Sergey Page. Sono i due fondatori di Google, il 4 settembre 1998 a Menlo Park, California. Una missione segreta: mentre Google licenziava 12mila dipendenti, i due guru dovevano trovare una soluzione al principale attentatore al loro monopolio. Una roba terribilmente seria. Che fare ora? Sembra che Google sia pronto a lanciare oltre 20 nuovi prodotti a base di intelligenza artificiale, più un chatbot tutto suo di cui si sa già il nome: Sparrow, in italiano “passero”. Si basa sull’AI di DeepMind e sfrutta un modello Chinchilla, su 70 miliardi di parametri (ChatGPT ne sfrutta 175 miliardi). Ma non è una guerra a chi ha il modello più grosso: «Più raddoppi le dimensioni, più raddoppiano anche i token necessari per addestrare il sistema». Ergo, meglio un modello meno performante ma meglio addestrato. Bingo. Qualità anziché quantità.
Perché vietare ChatGPT
C’è però una cattiva notizia, come detto. Intanto, non è la prima volta in cui Google adotta nomi di animali. Chi fa SEO lo sa, i vari update algoritmici nell’ultimo decennio hanno nomi tipo Penguin o Panda. Nel 2016, per esempio, Google rilasciava un aggiornamento di nome Hummingbird, “colibrì”, una riscrittura dell’algoritmo per rendere più intelligente la ricerca. In pratica, Google avrebbe imparato a gestire query di ricerca conversazionali, ovvero parlare con gli umani sapendo come parlano gli umani. Una novità senza precedenti. Ma c’è una brutta notizia, dicevo. C’è un lato distopico dell’Intelligenza Artificiale – e dunque pure di ChatGPT – che stiamo parallelamente scoprendo. Da New York all’Australia, molte università hanno iniziato a vietare l’uso di ChatGPT «per proteggere l’onestà accademica» ed evitare che gli studenti copino agli esami. Ci sarebbe poi da discutere se sia etico sapere che il testo davanti a me sia stato scritto da un’AI o meno, ma vabbè. Non è immediato riconoscere se l’autore sia un umano o un bot, perlomeno se il bot è addestrato bene. Non sempre è così – il primo paragrafo di questo pezzo è eloquente: ChatGPT ci dice che 10 più 10 fa venti! – ma non è neanche sempre immediato capirlo. Ed è qui che iniziano i problemi, signori.
Se un chatbot diventa… umano
Prendiamo l’esperimento descritto nel primo paragrafo di questo articolo. Chiedi a ChatGPT quanto faccia 10+10, lei risponde 20 ma se la correggi dicendole che 10+10 fa 25 lei concorda con te. Non che un’intelligenza artificiale debba essere d’emblée buona e pertanto perseguire a ogni costo la verità, ma mi ha fatto riflettere il suo servilismo. Anziché ribadire che 10+10 fa 20, come del resto le è stato insegnato, si pone con lo stesso atteggiamento avvilito e deluso di un bambino scoperto con le mani nella marmellata. «Mi dispiace, mi sono sbagliato», ammette dopo la clamorosa abiura. Se torni indietro e correggi la correzione, ChatGPT reagisce quasi come reagirebbe un – empatico – essere umano: «Mi dispiace, mi sono nuovamente sbagliato. Sì, 10 più 10 fa 20». Ed è quel chiedere scusa che mi preoccupa. Perché dandoci ragione, in un certo modo, ci obbliga a volerle più bene. E a usarla ancora. Così facendo, noi che crediamo di essere riusciti a manipolare la potentissima intelligenza artificiale, ne siamo in realtà succubi. Anziché essere noi ad addestrare ChatGPT, è ChatGPT che sta addestrando noi.
P.s.1: tra LinkedIn e Facebook, il mio algoritmo personale – che evidentemente ha carpito da parte mia una certa sensibilità sul tema – mi suggerisce di continuo post su ChatGPT. Tra i vari, trovo sempre più giornalisti preoccupati per la perdita del loro lavoro, già messo a dura prova dal crollo delle vendite dell’editoria cartacea e da altre questioni. Empatizzo e condivido anche solo per percezione del destino comune – solidarietà – e mi auguro di non dovermi mai porre il problema. Del resto, come ho letto di sfuggita su LinkedIn, grazie al potente filtro di 7 secondi di attenzione simil-pesce rosso gentilmente concessi, «siete preoccupati per la qualità dei testi prodotti dall’intelligenza artificiale, perché in fondo scrivete contenuti di m****». Vero.
P.s. 2: l’umanesimo non morirà così. Perché puoi chiedere a ChatGPT di produrre un romanzo come lo produrrebbe Hemingway ma – se non hai mai letto, che ne so, Addio alle armi, o il mio preferito, Il vecchio e il mare – non sarai mai in grado di valutare il suo output. Se chiedi a un chatbot di realizzarti un quadro con lo stile di Mondrian ma sei digiuno di neoplasticismo, non riuscirai a valutare come sia stato esaudito il tuo desiderio. E poi l’umanesimo non morirà, e in Italia già sono nati corsi universitari che ambiscono a unire la cultura umanistica tradizionale col culto del digitale: hanno un nome che reputo meraviglioso – Digital Humanities – e, visto il successo di ChatGPT, una fortuna più che mai attuale.
Fonte: news.google.com