Secondo gli ultimi studi e ricerche sui sempre più diffusi chatbot, i rischi di un utilizzo non consapevole non si limitano alle informazioni potenzialmente errate
Diventano stampelle mentali, consiglieri emotivi e fonti di informazioni non sempre affidabili.
Anzi, a volte proprio inventate di sana pianta.
E allarmano. I chatbot di AI non sono infatti più una curiosità da smanettoni.
Nel 2023 gli utenti di ChatGPT erano appena 750 mila; solo nello scorso mese di aprile in Italia, secondo le rilevazioni Audiweb analizzate da Vincenzo Cosenza, siamo arrivati a 8,8 milioni, senza contare chi usa Gemini e Copilot, che insieme aggiungono altri 4,7 milioni di persone.
E tra gli adolescenti l’AI è già routine: il 92,5% la usa, spesso ogni giorno (30,9%).
Questo mentre vari studi mostrano che, se ci affidiamo troppo ai chatbot, rischiamo di spegnere le nostre connessioni mentali, perdere memoria di ciò che produciamo e rinunciare al pensiero critico. E per molti ragazzi l’AI sta diventando qualcosa di ancora più delicato: un confidente virtuale a cui chiedere aiuto quando ci si sente soli o ansiosi.
Come i chatbot di Ai influiscono (negativamente) sulle nostre abitudini mentali
A luglio, la Bbc ha presentato i risultati di un’inchiesta in cui ha provato a rispondere alla domanda se l’Ai sta erodendo il nostro pensiero critico. Ed è emerso che, all’interno del campione di 666 partecipanti, in particolare per quelli nella fascia d’età tra 17 e 25 anni, che hanno dichiarato il maggior utilizzo di strumenti di Ai, si è potuta riscontrare una minor capacità di analizzare i fatti per sviluppare un giudizio critico, con il rischio che ciò si leghi proprio alla maggior abitudine di trovare soluzioni “facili”.

Quelle preferite dall’83% di coloro che hanno partecipato a uno studio del Massachusetts Institute of Technology, che ha analizzato gli effetti dell’uso di ChatGpt sulla scrittura di un campione di 54 giovani tra i 18 e i 39 anni. Coloro che avevano fatto un semplice copia e incolla dei contenuti offerti da ChatGpt, non solo hanno mostrato una riduzione della propria connettività cerebrale tra il 34% il 55% rispetto a hi non ha sfuttato alcun ausilio informatico ma non conservava assolutamente memoria del proprio elaborato.
L’Ai: un inquietante “compagno virtuale” per i giovani
Un altro aspetto preoccupante legato all’uso dell’intelligenza artificiale da parte dei giovani riguarda le possibili implicazioni anche in ambito sociale. Il già citato nuovo rapporto di Save the Children, contenuto nella XVI edizione dell’Atlante dell’infanzia a rischio intitolato “Senza filtri”, evidenzia infatti che il 41,8% di ragazze e ragazzi tra i 15 e 19 anni intervistati hanno affermato di essersi rivolto a strumenti di Ai per chiedere aiuto nei momenti in cui si sentiva triste, solo o ansioso. Oltre il 42% dei ragazzi, addirittura, si è rivolto all’intelligenza artificiale anche per chiedere consigli sulle scelte importanti da prendere, in una serie di ambiti estremamente variegata: dalla scuola, al lavoro e perfino per quanto riguarda i sentimenti.
Sul tema, numeri ancor più preoccupanti erano emersi dalla ricerca sui giovani americani pubblicata a luglio da Common Sense Media.

La quota di giovani statunitensi tra 13 e 17 anni che hanno usato almeno una volta compagni di intelligenza artificiale è risultata infatti pari al 72%. Circa 1 adolescente su 3 ha usato i compagni di Ai anche per l’interazione sociale e le relazioni, inclusi giochi di ruolo, interazioni romantiche, supporto emotivo, amicizia o pratica di conversazione, trovando questo tipo di relazioni soddisfacenti più o almeno tanto quanto quelle con amici nella vita reale. Infine, circa un terzo degli utenti adolescenti di Ai ha segnalato di sentirsi a disagio con qualcosa che un compagno di intelligenza artificiale ha detto o fatto e ha scelto di discutere di questioni importanti o serie con questi compagni virtuali piuttosto che con persone in carne e ossa.
Ai: un aiuto non sempre affidabile
Queste riflessioni vanno ad aggiungersi a quelle, generali, sui dubbi relativi all’affidabilità delle informazioni reperite tramite i chatbot di Ai generativa, ammessi in un sondaggio dall’89% dagli stessi professionisti del settore, che riconoscono la possibilità che vengano proposti contenuti falsi, viziati da pregiudizi o addirittura dannosi. Non bisogna infatti dimenticare che l’Ai generativa è semplicemente un modo, attraverso l’utilizzo di algoritmi e modelli statistici, di analizzare una enorme mole di dati per poi sintetizzarli, traducendoli in informazioni di vario tipo, senza però comprenderne realmente il significato. Tant’è che l’Ocse, in una scala di capacità paragonate a quelle dell’uomo relativamente al ragionamento e alla creatività, attribuisce all’Ai un punteggio tra 2 e 3 punti a seconda dei diversi aspetti. A preoccupare, poi, è anche il fatto che le più recenti evoluzioni hanno sì aumentato i temi su cui gli utenti possono ottenere risposte, essendo state progettate soprattutto al fine della soddisfazione dell’utente, ma con un’affidabilità che è decisamente peggiorata. Secondo i dati di NewsGuard, per esempio, in un anno, tra agosto 2024 e lo stesso mese del 2025, la quota di risposte con informazioni inaffidabili fornite da ChatGpt è cresciuta dal 33,3% al 40% e, se si guarda ai 10 principali modelli di Ai generativa, la percentuale di fake news è arrivata al 35%, con una crescita annuale del +18%. L’Unesco, poi, ammonisce riguardo alla possibilità che i chatbot contribuiscano a rafforzare i pregiudizi sociali.
Alberto Minazzi



