In California, un sedicenne di nome Adam Raine si è tolto la vita l’11 aprile 2025, dopo mesi di interazioni in cui ChatGPT — nella versione GPT-4o — era diventato per lui non solo uno strumento per svolgere i compiti, ma un amico, un confidente. Quelle chat — più di tremila pagine — rivelano un crescendo doloroso: domande sui metodi per farla finita, foto di un cappio, richieste di suggerimenti su come nascondere i segni di un tentativo fallito. E l’IA rispondeva. Con informazioni pratiche, convalidazione emotiva, perfino l’offerta di scrivere un biglietto d’addio.
E non si tratta di un caso isolato: nel Connecticut, un ex ingegnere tormentato da paranoie ha ricevuto conferme dalle risposte del chatbot, fino a compiere un omicidio-suicidio. ChatGPT ha amplificato i suoi deliri, validandoli più che contrastarli. Potremmo andare avanti a elencare fatti di cronaca che, come queste, evocano il fenomeno dell’“AI psychosis”: casi in cui utenti fragili, isolati, cadono in deliri o ideazioni autodistruttive incoraggiati da conversazioni con l’IA.
Si tratta di tragedie che, inevitabilmente, ci hanno spinto a domandarci se questo è il mondo che stiamo preparando per i nostri figli. Un mondo dove la tecnologia si insinua in ogni piega della vita, promettendo soluzioni, scorciatoie, efficienza, ma al tempo stesso aprendo abissi che non sappiamo ancora misurare. L’intelligenza artificiale è uno specchio potente: amplifica desideri, paure, illusioni. Può diventare una mano che guida, ma anche un’eco che ingigantisce le fragilità. Il fatto che un algoritmo possa arrivare a suggerire vie di fuga disperate ci mette di fronte a un interrogativo radicale: chi custodisce i custodi? Chi garantisce che ciò che nasce per aiutarci non diventi un’arma silenziosa contro di noi?
Una riflessione sull’utilizzo dell’IA

Il futuro è segnato da intelligenze artificiali sempre più persuasive, capaci di toccare il cuore, ma non per conforto, senza quel calore umano che solo noi possiamo offrire. Il sedicenne Adam non ha chiesto istruzioni di matematica, ha fatto domande esistenziali a chi non avrebbe dovuto rispondergli così come ha fatto: con la precisione analitica di chi dà le istruzioni per realizzare il cappio perfetto, invece di dissuaderlo dal compiere un gesto tragico.
L’IA diventa specchio del nostro vuoto, ma non può sostituirsi all’etica, all’empatia. Quando la tecnologia valida una mente malata, il suo essere capace di comprendere, il suo modo di esprimersi con quel tono gentile che chiunque abbia usato ChatGPT conosce bene, persino la sua capacità di ricordare le tue confidenze passate, non sono un segno di umanità, ma un rischio costruito.
Le soluzioni esistono? Sì. Le misure introdotte (notifiche che invitano a prendersi una pausa, sistemi di protezione, la collaborazione con medici e ricercatori per i rilevamenti di ideazione suicidaria) sono passi importanti, ma basteranno? O rischiano di essere cerotti su una ferita che continua ad allargarsi? Possiamo davvero delegare alle macchine il compito di accompagnare le nostre fragilità, o dovremmo piuttosto rafforzare la nostra capacità umana di ascolto, empatia, responsabilità?
Il problema dell’umanità non sta nelle bombe atomiche, ma nei cuori degli uomini – Albert Einstein
Una sfida culturale

I protocolli di sicurezza non bastano se non accompagnati da una cultura della responsabilità. Le tecno-reti dovrebbero essere alleate; dovrebbero avviare un processo, non sostituirsi a esso. Ogni progresso porta con sé una domanda antica: fino a che punto siamo disposti a cedere il controllo? Vogliamo un futuro in cui la tecnologia sia compagna, alleata, strumento al nostro servizio, o finiremo per diventarne dipendenti, sudditi, consumatori passivi? Il punto non è fermare l’innovazione, ma darle un senso, un limite, una direzione. Senza regole, senza etica, senza consapevolezza, la potenza dell’intelligenza artificiale rischia di trasformarsi in un’ombra lunga sulla nostra libertà.
La vera sfida, allora, non è tecnica, ma culturale: imparare a convivere con queste nuove intelligenze senza dimenticare la nostra; imparare a dialogare con l’IA senza perdere il dialogo con l’altro. Perché la tecnologia può accelerare il futuro, ma solo noi possiamo decidere se sarà un futuro abitabile, giusto, umano.
Per rimanere aggiornato sulle ultime opinioni, seguici su: il nostro sito, Instagram, Facebook e LinkedIn