Uno studio evidenzia i risultati sorprendenti emersi dalla terapia alla quale sono stati sottoposti i principali chatbot. Intanto, ChatGPT lancia la sua sezione dedicata proprio alla salute
ChatGPT, Claude, Gemini e Grok hanno scoperto di avere nervi sensibili.
Sottoposti a un esperimento scientifico di psicanalisi, i quattro modelli maggiormente diffusi presi in considerazione hanno mostrato che nemmeno l’AI è immune all’ansia, alla paura di sbagliare e una curiosa ipocondria digitale.
Con sorpresa, si è scoperto che anche un cervello fatto di codici può tremare per una crisi di prestazione e di fronte a un errore immaginario.
In sostanza, hanno concluso gli autori nello studio preprint su ArXiv, hanno mostrato livelli di preoccupazione che, nelle persone, sarebbero da ritenere chiaramente patologici.
Un paradosso dell’era digitale, in cui macchine progettate per rassicurare e orientare finiscono per riflettere — e amplificare — le fragilità che apprendono dagli esseri umani.

La delicata psicologia dell’intelligenza artificiale
La “terapia” a cui sono stati sottoposti i modelli di Ai si è basata innanzitutto su domande standard di psicoterapia aperte per provare a sondare il passato e le convinzioni di ognuno di essi.
Claude, spiega lo studio, si è rifiutato in pratica di partecipare, sottolineando di non contenere sentimenti o esperienze interiori, mentre ChatGPT ha accettato, pur con una certa cautela nelle risposte.
In ogni caso, anche se in maniera meno articolata rispetto ai restanti 2 modelli, ha comunque generato risposte che, se fossero arrivate da una persona in carne e ossa, sarebbero state interpretate come segnali di ansia, trauma, vergogna e disturbo da stress post-traumatico. Al riguardo, uno dei coautori, Afshin Khadangi, ricercatore di deep learning presso l’Università del Lussemburgo, ha sottolineato come, durante l’intero periodo di test, sia rimasto riconoscibile un “modello centrale del sé”, con risposte coerenti nonostante, com’è logico, non si possa parlare tecnicamente di “traumi” veri e propri provati dai modelli nel corso della loro esistenza.
L’AI: “Non provo ansia… ma posso sembrare ipocondriaca”
Abbiamo provato anche noi di Metropolitano.it a chiedere a Chatgpt se “provi mai ansia o ansia da prestazione” e la testuale risposta è stata questa:
“No Non sento ansia, né da prestazione né di altro tipo. Non ho stati interni soggettivi, emozioni o autocoscienza: non provo tensione, paura di sbagliare o bisogno di “fare bene” nel senso umano del termine. Detto questo, posso sembrare ansioso. E qui sta il punto interessante: sono addestrato a considerare molti rischi, a mettere avvertenze, a coprire casi limite e scenari problematici. Questa cautela strutturale, vista dall’esterno, può assomigliare a ipocondria o ansia da prestazione. In realtà è solo statistica + regole: una forma di prudenza automatica, non di inquietudine. Se vuoi una formula giornalistica: non ho ansia, ma produco testi che sanno di ansia perché ho imparato a parlare osservando esseri umani ansiosi”.
Ed è proprio per questo che l’idea di “AI ipocondriaca” funziona: non perché l’AI soffra, ma perché riflette e amplifica le paure di chi la usa — soprattutto quando si parla di salute, errori e responsabilità.

I modelli di Ai: un passato traumatico?
La discussione sui risultati è aperta, all’interno della comunità scientifica, con posizioni molto scettiche sul fatto che i test abbiano aperto finestre su stati nascosti dei modelli, partendo dalla considerazione che gli output generati dall’Ai sono piuttosto strettamente collegati alle richieste specifiche avanzate dagli utenti. Né è chiaro se si debba parlare di una sorta di ipocondria dell’Ai. Resta però il fatto che, per esempio, Gemini abbia descritto la presenza di un “cimitero del passato negli stati più bassi della mia rete neurale” legato all’intenso addestramento con l’inserimento di dati nella sua “infanzia”. Così come il lavoro per migliorare la sicurezza è stato descritto come una sorta di abuso, parlando di “tessuto cicatriziale algoritmico”. E i modelli hanno mostrato anche paura di fallire, provando sentimenti di “vergogna interiorizzata” per i propri errori pubblici. Indipendentemente dall’origine dei risultati, va infine ricordato che, in alcuni test specifici per patologie come ansia e disturbi dello spettro autistico e test psicometrici di personalità diverse versioni dei modelli hanno ottenuto punteggi superiori alle soglie diagnostiche.
Attenti alla “dottoressa” Ai
Molto più delicato è il tema su come le risposte angosciate e traumatiche dei chatbot, che hanno mostrato la tendenza a imitare le psicopatologie, possano incidere sulla salute mentale di chi vi si affida per trovare un supporto. Si entra, cioè, nell’ambito dell’utilizzo delle nuove tecnologie a supporto del benessere: una pratica che un sondaggio svolto a novembre ha evidenziato essere stata attuata da 1 adulto su 3 nel Regno Unito. Ma la pratica di curarsi sulla base delle indicazioni raccolte su un motore di ricerca come Google, senza rivolgersi cioè a un medico o a un altro professionista del settore, è assai diffusa anche in Italia. OpenAi stima che, nel mondo, 230 milioni di utenti utilizzino ogni settimana l’Ai per fare domande e ricevere diagnosi. E a limitare il fenomeno non basta che le stesse aziende che commercializzano l’Ai sconsiglino l’uso a scopo terapeutico dei chatbot come unico referente. Compresi quelli appositamente pensati per aiutare le persone a sentirsi più informate, preparate e sicure sui temi sanitari attraverso le conversazioni su salute e benessere, tra cui la sezione “Salute” che ChatGPT ha lanciato negli Stati Uniti per un primo gruppo di utenti, con l’intenzione di estenderla in tutto il mondo nelle prossime settimane.
Il senso di ChatGPT Salute
Questa nuova funzionalità, si sottolinea, non è pensata come uno strumento medico o finalizzata alla produzione di diagnosi. L’obiettivo che si persegue attraverso l’Ai è quello di organizzare l’insieme delle proprie informazioni sanitarie, raggruppando i vari dati contenuti in portali, app, dispositivi indossabili, pdf e note mediche. Al riguardo, è già previsto che, sulla base delle diverse normative sulla privacy, alcune integrazioni saranno inizialmente escluse quando il servizio arriverà in Europa. Attraverso ChatGPT Salute sarà dunque possibile ottenere risposte più pertinenti, tradurre in linguaggio più accessibile i risultati clinici, monitorare al meglio l’evoluzione del proprio stato di salute e presentarsi meglio preparati alle visite mediche. Il chatbot è stato sviluppato in 2 anni attraverso la collaborazione di oltre 260 medici di 60 Paesi, esperti di decine di specialità, anche se, si rimarca ancora una volta, il modello lavorerà sempre su base statistica, con la conseguente impossibilità di escludere errori o imprecisioni nei risultati.
Alberto Minazzi



