
Questo articolo è la seconda parte di un saggio più ampio suddiviso in due parti. Chi avesse perso la prima parte, la può trovare qui.
4) Le AI complicano la distinzione tra verso e falso e la costruzione del senso
Viviamo in un periodo storico interessante, in cui le intelligenze artificiali rendono sempre più difficile distinguere il vero dal falso, I fatti dai vissuti e le emozioni proprie da quelle degli altri. Con la diffusione di massa di immagini e video generate con le AI ci stiamo abituando a vedere sui social network e sui giornali sempre più immagini di cui facciamo fatica a riconoscere la veridicità. Sui social vediamo immagini che sono chiaramente false, ma che suscitano emozioni reali. Il problema quindi non è solo l’informazione, in quanto ciò ha anche ripercussioni psicologiche.

I video generati con le AI sono talmente realistici che risultano indistinguibili dalla verità, il che complica la costruzione di un senso condiviso della realtà. E’ con Sora di OpenAI, rilasciato il 9 dicembre 2024 e di Google VEO 3 rilasciato negli USA il 3 maggio 2025, che iniziano a circolare video generati dalle AI di qualità televisiva e cinematografica. I primi video pubblicati sono prodotti da persone evidentemente consapevoli che questo nuovo strumento metterà in crisi il concetto stesso di realtà. Nei primissimi video si vedono persone generate dall’AI che dicono “Noi non siamo dei PROMPTS!” che chiedono diritti per loro in quanto persone reali. Il 3 luglio 2025 VEO 3 viene rilasciato anche in Italia e da quel momento si diffondono in massa video-barzellette talmente realistiche che se i personaggi ritratti non si gettassero a terra alla fine del video o se non dicessero la parola nonsense “skibiboppi” non ci accorgeremmo nemmeno che sono generate dall’AI. Si tratta probabilmente di una delle ultime volte che siamo stati in grado di riconoscere il vero dal falso senza gli strumenti informatici che stanno nascendo per fare fact checking. Pensiamo a quanto già oggi le ideologie, la propaganda e le ricerche scientifiche di qualità siano qualcosa di molto complesso da distinguere, ma che presto faremo sempre più fatica a riconoscere senza delle importanti competenze culturali e psicosociali.
Ma l’AI non sembra soltanto la causa di questa distinzione difficile tra vero e falso, sembra piuttosto rispondere ad un bisogno: quello di costruire la propria narrazione in contesti sociali che sembrano sempre meno affidabili, in cui ci sente sempre più soli. In questo senso si può parlare di isolamento narrativo, cioè di situazioni in cui le persone ricorrono all’AI per raccontare se stessi, come se raccontarsi ad un computer sia un modo per ridefinire l’immagine di sé in un contesto in cui ci si sente isolati.
5) Produttività individuale e produttività nelle organizzazioni
Ma le intelligenze artificiali a cosa servono realmente da un punto di vista psicologico? Per rispondere ci aiuta un breve shorts su YouTube di Tommaso Masi, economista di Starting Finance che riporta i dati di un recente studio del MIT tramite cui emerge che nonostante i numerosi tentativi di integrare le AI nei processi produttivi in azienda, il 95% dei progetti di AI generativa non produce alcun miglioramento organizzativo e dei costi aziendali. Al contempo sono sempre più richiesti i profili di professionisti in grado di usare le AI generative con abbonamenti personali. E questo cosa potrebbe significare?

Sembra che imprese pubbliche e private chiedano ai singoli di investire nella produttività senza cambiare realmente la propria organizzazione interna e senza chiedersi in cosa investire. Forse al momento le AI servano a migliorare la produttività dell’individuo, entro una logica performativa, logica che tende ad ignorare i vissuti, come il disorientamento e l’alienazione, vissuti che sempre più persone sentono di vivere nella vita e al lavoro.
Le AI, quindi, sembrano rispondere ad una crisi culturale e di smarrimento, profondo, che sta vivendo l’Occidente, perché è un contesto in cui l’individuo è al centro del mondo, ma che spesso è lasciato da solo con la costruzione della propria identità e del dare senso alle proprie emozioni. Allora non sorprende che molte persone cerchino nelle AI qualcosa che assomiglia vagamente ad uno psicologo, cioè qualcuno a cui raccontarsi per essere ascoltati, sempre, anche quando si è da soli.
Interessate che non sia così in tutto il mondo. Nella puntata 138 di “Altri Orienti”, un podcast di Quora Media intitolata AI, Cina vs Usa, si parla di come in Cina, le AI sono pensate non per migliorare la produttività e la performance individuale, ma per sviluppare i processi produttivi aziendali secondo la filosofia confuciana. Viene fuori come le AI non siano neutrali dal punto di vista ideologico, ma sono fondate e quindi ci propongono idee di sviluppo e di produttività anche molto differenti, laddove in occidente la domanda verso le AI sembra essere quella di migliorare la performance individuale, anche in senso cosmetico, senza andare a modificare i processi produttivi, che invece sembrano seguire automatismi apparentemente immutabili. In un recente podcast intitolato L’impero della menzogna: possiamo fidarci di noi stessi?, Lucio Caracciolo direttore della rivista di geopolitica Limes, contestualizza l’ascesa delle AI nella più ampia crisi culturale che sta attraversando l’occidente che, secondo lui, ha messo il pilota automatico e ha smesso di pensare se stesso. Per certi versi è vero che nonostante la promessa di semplificare i processi produttivi e il back office, le AI rischiano invece di aumentarne la complessità, in cambio di una piccola riduzione dei tempi di lavoro sui grandi numeri, ma non sui prodotti unici.
6) Le AI hanno una “intelligenza” diversa da quella umana
Le AI e la mente umana hanno “intelligenze” diverse, laddove la prima è imbattibile sull’analisi e confronto di grandi quantità di dati, ma che non per questo pensa come lo intendiamo ad esempio in senso psicoanalitico. Nel deriva che le AI oggi sembrano funzionare bene principalmente per fare ricerche online e velocizzare l’aggregazione di dati provenienti da diverse fonti, fare collegamenti tra questioni in modo ipertestuale, fare ricerche bibliografiche ed elencare questioni. Sicuramente le AI conoscono di computer molto meglio di quanto possa fare un qualsiasi esperto di computer, motivo per cui sanno scrivere codice di programmazione, sanno dire molto meglio di Aranzulla come configurare una stampante e quale oggetto di consumo acquistare. Trovano sicuramente largo uso nella produzione digitale, come piani editoriali e piani di comunicazione, foto e video per i social. In questo senso certificano la morte definitiva dell’industria reale in occidente, a vantaggio di una produzione di contenuti digitali e immateriali.
E la psicoterapia con ChatGPT?
Le intelligenze artificiali simulano l’intelligenza, ma non hanno alcuna soggettività. Ma allora perché le interpelliamo per consulenze psicologiche?
Che i chatbot possano sembrare intelligenti è un fenomeno noto. Già nel 1966 veniva chiamato “Effetto ELIZA”. Eliza è il primo chatbot mai creato ed è stato inventato nel 1966 da Joseph Weizenbaum.

Prendeva il suo nome da Eliza Doolittle, il personaggio di una donna che nel Pigmalione di George Bernard Shaw, imita i modi e le convenzioni, anche linguistiche, per sembrare di uno status sociale più alto del proprio. La capacità di questo chatbot di sembrare intelligente, anche se in realtà non comprendeva per nulla il senso e il significato delle parole, ha portato al concetto di “Effetto Eliza”, ovvero la tendenza ad attribuire intelligenza e intenzionalità a un’entità che non ne ha. Già allora suscitava l’illusione che comprendesse quello che l’altro diceva. Solo che imitare il linguaggio non significa comprendere il vissuto che il linguaggio attraversa.
L’illusione di confrontarsi con una persona reale può essere un problema, perché molti chatbot sono fatti per fornire sempre risposte autorevoli, anche quando le domande poste sono problematiche. In un articolo sul Post leggiamo che ChatGPT “ è una tecnologia pensata per darti quello che desideri, in grado di creare ogni tipo di collegamento concettuale e di costruirci attorno un discorso apparentemente sensato”, ma rischia di assecondare ragionamenti e considerazioni che invece uno psicoterapeuta proverebbe a mettere in discussione, perché le AI non sono coinvolti minimamente ad esempio nel bisogno di rassicurazione o di dipendenza che può emergere in un rapporto.
Per quanto riesca a personalizzare le risposte non può comprendere il funzionamento psicologico del suo interlocutore, e ciò impedisce la formazione di un rapporto di complicità che solitamente si instaura tra uno psicoterapeuta e il suo paziente e che è il principio alla base del funzionamento di una psicoterapia. La psicoterapia inoltre è un atto non-linguistico, nel senso che si tratta di dare parole alle emozioni, alle fantasie e ai vissuti, tutte cose che un chatbot non potrà mai fare. Le AI combinano parole in discorsi, ma non sono attraversate emotivamente da ciò che l’altro gli scrive. La sua assenza di coinvolgimento emotivo è problematica, perché in psicoterapia un terapeuta è implicato nella relazione e lavora anche su ciò che la relazione suscita in lui.

Alcuni psicologi come lo statunitense Lewis Goldberg dicono che se da una parte ChatGPT può essere utile se usato come una sorta di diario delle proprie emozioni, in quanto si deve fare lo sforzo riflessivo di metterle in parola, il pericolo è diventare dipendente da un secondo parere, mentre ci sono momenti in cui bisogna prendere velocemente delle decisioni da soli, oppure confliggere in una discussione con qualcuno. Altri psicologi, come Ciara Bogdanovic, hanno dichiarato la sua preoccupazione che ChatGPT non riesca a individuare il bisogno di conferme e rassicurazioni, su cui un terapeuta competente invece lavorerebbe dicendo di no. Possiamo desumere che presto si inizierà a parlare di dipendenza da chatbot.
Nonostante ciò uno “psicologo tascabile” sempre disponibile e mai frustrante può sembrare affascinante e numerosi i tentativi di ingegnerizzare la funzione psicologica, anche grazie ad alcune piattaforme che producono e vendono big data sulle psicoterapie svolte al loro interno, con l’intento di replicare e vedere la funzione psicologica, anche senza la presenza di uno psicologo.
Secondo lo psicologo Chris Hoff è possibile prevedere che chi persegue una psicologia basata sulla Evidence Medicine Based (EMB) molto probabilmente non riuscirà a competere con questi chatbot. Mentre chi persegue modelli relazionali, chi fa psicoanalisi delle emozioni e dei vissuti dovrà sempre più spesso confrontarsi con pazienti che portano la fantasia che si possa fare tutto da soli, ignorando i vissuti di solitudine, che da più parti sempre più cittadini dichiarano pubblicamente di provare. Ci potremmo chiedere che fine fa la psicologia che propone la convivenza, la riduzione della violenza e la costruzione di senso ed identità, laddove molte AI si basano su modelli di sviluppo diversi.
Una proposta: La sindrome di Prometeo e la competenza a stare nei limiti
Ci sono fasi storiche in cui crediamo in dei miti di onnipotenza tecnologica. Queste tecnologie sembrano nascere per superare l’impotenza che la solitudine, ma queste generano solitudine e impotenza a loro volta. La sensazione è che con l’intelligenza artificiale stia venendo meno il rapporto psicologico con il limite.
Con il film Don’t Look Up del 2021 si è tornato a parlare della corrente filosofica del cosmismo russo, una filosofia condivisa tra USA e Unione Sovietica nel secondo dopoguerra secondo cui l’essere umano non è in grado di sospendere i propri agiti fino al limite dell’autodistruzione, motivo per cui bisogna puntare verso le stelle per trasferire la civiltà umana su altri pianeti. Tale ideologia ci fa capire uno dei motivi della corsa allo spazio degli anni ‘60. Si è parlato bene e male di Elon Musk, che dal cosmismo prende a piene mani l’idea dei viaggi privati nello spazio. Il problema però è l’Elon Musk che vive dentro ognuno di noi, cioè quanto è ormai condiviso tra tutti noi la fantasia che per risolvere i problemi bisogna trovare soluzione tecnologiche, in barba al vissuto di solitudine e impotenza che nasce dall’individualismo e senza mai sospendere l’agito emozionale.
Come psicologi pensiamo sia utile tornare a parlare della fantasia di onnipotenza con competenze intellettuali, specie in un periodo storico in cui il suprematismo e la corsa agli armamenti sono tornati di moda. Un modo per parlare di questo può essere dare un nome a queste fantasia collettiva. Già con la bomba atomica si parlava della sindrome di Prometeo: la fantasia di possedere un potere e l’angoscia di pagare un prezzo per questo. Sindrome di Prometeo è un buon modo tramite cui possiamo parlare di questo periodo storico, dato che sempre più spesso ci troviamo a parlare della supremazia tecnologica, e del desiderio perverso di far avverare le fantasie di onnipotenza.

Il punto centrale è che queste fantasie non riguardano solo la politica, perché i miti riorganizzano le paure e i desideri di tutti noi. Ognuno di noi vive dentro di sé un misto di eccitazione e di paura per il superamento dei propri limiti. Queste emozioni le sentiamo personalmente, ogni volta che ci confrontiamo con una nuova tecnologia e con l’AI, con la capacità di possederla e con il desiderio di superare i nostri limiti. La corsa all’AI sembra una nuova corsa agli armamenti, ma anche una corsa contro noi stessi: tra l’eccitazione di sentirci più potenti anche personalmente e la paura di non esserlo abbastanza. Al di là di come le AI si evolveranno, sembra stia cambiando radicalmente il nostro rapporto con il limite.