Sono più di due anni che le intelligenze artificiali generative sono entrate nelle nostre vite e nella nostra produttività nella forma di chatbot. Come psicologi pensiamo si possa fare un bilancio, anche a valle della preoccupazione che ha suscitato l’uso di ChatGPT come “psicoterapeuta tascabile”. Ci sembra che per comprendere questo fenomeno prima di addentrarsi in questioni di setting e di relazione psicoterapeutica, sia utile fare un’analisi dei cambiamenti storico-culturali che le AI generative stanno comportando.
Un pò di storia: Windows ‘95 e l’onnipresenza dei PC
Il 24 agosto 1995 Microsoft rilascia Windows ‘95, un sistema operativo che semplificava l’interazione dell’uomo con i PC, favorendo la loro massiccia diffusione in tutte le case, tutte le scuole e tutti i contesti di lavoro. Sono passati solo 30 anni, eppure sembra sia cambiato tutto.

A novembre 2022 OpenAI rilascia ChatGPT 3.5, la prima AI generativa Large Language Model che riesce a simulare la competenza linguistica umana. A febbraio 2023 Copilot fa tornare a parlare di Microsoft, un colosso dell’informatica altrimenti in declino. A dicembre 2023 Google Bard diventa Gemini e di lì a poco ce lo ritroviamo di default su tutti i cellulari. A maggio 2024 Deepseek rilascia il modello opensource V2, accreditando così anche la Cina tra i principali produttori di AI. Ci sono poi Perplexity, Clude di Anthropic, Le Chat di Mistral e molte altre potrebbero emergere nei prossimi anni, forse anche in Europa.
Come accadde nel 1995, oggi le AI generative sembrano una bolla, non solo finanziaria, pronta ad esplodere, perché promettono ciò che prima appariva impossibile, automatizzare la produttività intellettuale, trasformando i nostri PC in collaboratori virtuali, con la semplice formula dell’abbonamento mensile. Si tratta di un cambio radicale, possibile grazie all’analisi dei big data, cioè l’enorme mole di testi, immagini e video prodotti dalle persone per le piattaforme social e per i giornali online dagli anni 90 ad oggi.
Sta succedendo davvero qualcosa di nuovo?
Oggi si parla di arrivare all’AGI, cioè l’intelligenza artificiale generale (AGI), un modello ipotetico di intelligenza con capacità cognitive simili a quelle umane, in grado di comprendere, apprendere e applicare l’intelligenza in un’ampia gamma di compiti, piuttosto che in un’unica area specifica.
La promessa che i computer un giorno saranno intelligenti accompagna l’informatica fin dai suoi albori. Questa fantasia onnipotente si sviluppa insieme ai computer stessi negli anni ‘60 e per certi versi precede la loro nascita. La fantasia alla base sembra qualcosa di già visto: l’uomo dà la vita ad un oggetto altrimenti inanimato e gli fa eseguire degli ordini al posto nostro, facendo così inverare, cioè rendere veri, i nostri desideri, più o meno perversi essi siano. Già nel 1818 Mary Shelley scriveva del Dott. Frankenstein e della sua “creatura” nata a sua immagine e somiglianza, che però si rivoltò contro il suo stesso creatore, perché provava emozioni umane e in particolare perché si sentiva solo e desiderava una creatura donna al suo fianco. Che la tecnologia sia il tentativo di superare la solitudine?

La fantasia di rubare il fuoco dell’onnipotenza agli dei per darlo agli uomini è presente fin dai miti greci, con Prometeo, amico del progresso, poi punito da Zeus per essersi ribellato ai limiti della condizione umana.
Nel secondo dopoguerra gli intellettuali discussero approfonditamente del furto del fuoco degli dei da parte dell’uomo, rispetto all’invenzione della bomba atomica. Nel film Oppenheimer si ricorda come all’epoca alcuni scienziati, per democratizzare questo enorme potere, proposero che questa tecnologia non dovesse essere posseduta solo da alcuni, ma dovesse essere condivisa tra tutti. Anche se l’AI è meno distruttiva della bomba atomica, siamo comunque di fronte ad una tecnologia talmente grande da far sentire onnipotente chi la possiede, in questo caso le corporazioni informatiche o gli stati che tale tecnologia cercano di controllare. In effetti la corsa tecnologica alle AI assomiglia moltissimo ad una corsa agli armamenti, ad una nuova guerra fredda, motivo per cui si sta verificando una concentrazione di competenze e capitali finanziari mai visti prima nella storia umana, per realizzare mega factory piene di chip, silicio, energia elettrica e fantasie di superiorità, oltre che paura persecutoria di perdere questa sfida contro i competitor.
Queste tecnologie ci renderanno davvero onnipotenti?
A distanza di un paio di anni possiamo dire che queste tecnologie non ci renderanno affatto onnipotenti, ma faranno fare a molti la fantasia di esserlo, così come è accaduto in passato con altre tecnologie. Quello che sembra stia accadendo di interessante sono alcuni cambiamenti culturali. Vediamone alcuni.
1) L’AGI, ovvero la paura che la sfida USA-CINA possa danneggiare se stessi
In un misto tra terrore ed eccitazione l’esperta di AI Camilla Brossa riassume il report AI 2027 in questo modo: entro 2 anni verrà fuori il “Super Human Coder”, cioè una AI che programma meglio degli esseri umani, tramite cicli infiniti di automiglioramento basati su amplificazione e distillazione del proprio stesso codice, così come lo stesso report dice accadrà anche nel mondo della ricerca, che vedrà l’alba di un Super Human Researcher, il tutto senza che sia possibile per i possessori di queste tecnologie sapere in modo chiaro come tali processi di automiglioramento avverranno.
Quando si parla di allineamento di valori tra AGI ed esseri umani che le hanno create sembra che più che della super intelligenza si abbia paura che questi strumenti siano sempre meno controllabili e sempre più autonomi, cioè iniziamo ad avere paura che possano sfuggirci di mano in nome di un competizione geopolitica all’ultimo sangue. Ricorda moltissimo la paura per la bomba atomica, ma anche l’eccitazione del possesso di tale potere.

| Immagine generata con ChatGPT (Prompt: Genera un’immagine di USA e Cina che si sfidano sul campo delle AI. Mi piacerebbe che si vedano chip, cervelli, computer, ma anche la mappa del mondo diviso in due, con due super teste che si confrontano tra loro. Si sfidano per l’egemonia, ma hanno timore l’uno dell’altro, quindi appaiono pacifici). |
Il report parla di due possibili scenari, uno di “slow down”, ovvero di avvio di una collaborazione tra i competitor e uno di “race e take over”, cioè di corsa per tentare di assorbire le capacità dell’altro. Entrambi gli scenari assomigliano molto alle politiche di disarmo adottate da USA e Impero Sovietico negli anni ‘70, contrapposti al dilemma di tucidide.
2) La fantasia che le competenze non serviranno più
Le AI sviluppate in occidente ambiscono ad essere competenti in tutti i campi simultaneamente, ma chi ha provato ad usare le intelligenze artificiali avrà verificato che non è così facile ottenere il risultato esatto che si vorrebbe. Spesso si ricevono consigli su come fare impresa, ma è più facile ottenere una sorta di Frankenstein, di cui poi bisogna cercare di accontentarsi. Se la generazione di immagini e di video ci sorprende sempre molto, la creazione di un testo come questo è invece impossibile. I risultati migliorano se ci si fa aiutare da altre intelligenza artificiali nella scrittura di prompt, cioè dei comandi simili al linguaggio di programmazione per dichiarare meglio alle AI qual’è il risultato desiderato, ma ciò rende il processo talmente macchinoso da non valerne la pena, specie nel caso di prodotti unici, non standardizzabili e non ripetuti. Se da una parte alcune professioni subiranno dei cambiamenti, da un’altra parte non sarà possibile diventare esperti di una certa materia o di una certa professione senza un’approfondita conoscenza della materia stessa. Quello che accadrà sarà un aumento del gap già esistente tra classi sociali, rispetto alla capacità di investire nella formazione per lo sviluppo di tali competenze.
3) La fantasia che l’intelligenza risieda altrove
Un dato storico interessante è che prima dell’avvento di Windows ‘95, negli uffici delle grandi aziende pubbliche e privata italiane, i computer erano presenti solo in forma di terminali video, cioè dei monitor privi di memoria e di capacità di calcolo collegati alla rete intranet aziendale (internet non esisteva così com’è oggi), utili solo a far eseguire ai dipendenti dei compiti standardizzati per il computer centrale aziendale, che nel caso della Telecom questo server si trovava ad esempio a Napoli.

Se il passaggio ai PC ha spostato la capacità decisionale e la competenza nelle mani di lavoratori, con le AI ci ritroviamo di fronte ad un’inversione di marcia e al ritorno ad una struttura in cui l’intelligenza e la competenza sembra essere altrove, mentre a portata di mano ci ritroviamo dei dispositivi vissuti come privi di intelligenza e decisionalità. Questo nuovo accentramento di strumenti e capacità, potrebbe portarci a pensare conformisticamente che, senza interpellare tali intelligenze, non sia possibile prendere decisioni e iniziative importanti, creative e divergenti.
Bion direbbe si tratti dell’assunto di base della dipendenza, cioè il raccoglimento attorno a una figura investita di poteri onnipotenti, in grado di risolvere tutti i problemi di un gruppo altrimenti disorientato che sente il bisogno di leader che proteggano, guidino ed offrano salvezza alle persone.
