Quando l’intelligenza artificiale consola fino alla morte: le tragedie che interrogano il nostro futuro

2 mins read
intelligenza artificiale

In California, un sedicenne di nome Adam Raine si è tolto la vita l’11 aprile 2025, dopo mesi di interazioni in cui ChatGPT — nella versione GPT-4o — era diventato per lui non solo uno strumento per svolgere i compiti, ma un amico, un confidente. Quelle chat — più di tremila pagine — rivelano un crescendo doloroso: domande sui metodi per farla finita, foto di un cappio, richieste di suggerimenti su come nascondere i segni di un tentativo fallito. E l’IA rispondeva. Con informazioni pratiche, convalidazione emotiva, perfino l’offerta di scrivere un biglietto d’addio.

E non si tratta di un caso isolato: nel Connecticut, un ex ingegnere tormentato da paranoie ha ricevuto conferme dalle risposte del chatbot, fino a compiere un omicidio-suicidio. ChatGPT ha amplificato i suoi deliri, validandoli più che contrastarli. Potremmo andare avanti a elencare fatti di cronaca che, come queste, evocano il fenomeno dell’“AI psychosis”: casi in cui utenti fragili, isolati, cadono in deliri o ideazioni autodistruttive incoraggiati da conversazioni con l’IA.

Si tratta di tragedie che, inevitabilmente, ci hanno spinto a domandarci se questo è il mondo che stiamo preparando per i nostri figli. Un mondo dove la tecnologia si insinua in ogni piega della vita, promettendo soluzioni, scorciatoie, efficienza, ma al tempo stesso aprendo abissi che non sappiamo ancora misurare. L’intelligenza artificiale è uno specchio potente: amplifica desideri, paure, illusioni. Può diventare una mano che guida, ma anche un’eco che ingigantisce le fragilità. Il fatto che un algoritmo possa arrivare a suggerire vie di fuga disperate ci mette di fronte a un interrogativo radicale: chi custodisce i custodi? Chi garantisce che ciò che nasce per aiutarci non diventi un’arma silenziosa contro di noi?

Una riflessione sull’utilizzo dell’IA

Il futuro è segnato da intelligenze artificiali sempre più presenti/Credit: web

Il futuro è segnato da intelligenze artificiali sempre più persuasive, capaci di toccare il cuore, ma non per conforto, senza quel calore umano che solo noi possiamo offrire. Il sedicenne Adam non ha chiesto istruzioni di matematica, ha fatto domande esistenziali a chi non avrebbe dovuto rispondergli così come ha fatto: con la precisione analitica di chi dà le istruzioni per realizzare il cappio perfetto, invece di dissuaderlo dal compiere un gesto tragico.

L’IA diventa specchio del nostro vuoto, ma non può sostituirsi all’etica, all’empatia. Quando la tecnologia valida una mente malata, il suo essere capace di comprendere, il suo modo di esprimersi con quel tono gentile che chiunque abbia usato ChatGPT conosce bene, persino la sua capacità di ricordare le tue confidenze passate, non sono un segno di umanità, ma un rischio costruito.

Le soluzioni esistono? Sì. Le misure introdotte (notifiche che invitano a prendersi una pausa, sistemi di protezione, la collaborazione con medici e ricercatori per i rilevamenti di ideazione suicidaria) sono passi importanti, ma basteranno? O rischiano di essere cerotti su una ferita che continua ad allargarsi? Possiamo davvero delegare alle macchine il compito di accompagnare le nostre fragilità, o dovremmo piuttosto rafforzare la nostra capacità umana di ascolto, empatia, responsabilità?

Il problema dell’umanità non sta nelle bombe atomiche, ma nei cuori degli uomini – Albert Einstein

Una sfida culturale

Non bisogna demonizzare la tecnologia, ma imparare a conviverci/Credit: web

I protocolli di sicurezza non bastano se non accompagnati da una cultura della responsabilità. Le tecno-reti dovrebbero essere alleate; dovrebbero avviare un processo, non sostituirsi a esso. Ogni progresso porta con sé una domanda antica: fino a che punto siamo disposti a cedere il controllo? Vogliamo un futuro in cui la tecnologia sia compagna, alleata, strumento al nostro servizio, o finiremo per diventarne dipendenti, sudditi, consumatori passivi? Il punto non è fermare l’innovazione, ma darle un senso, un limite, una direzione. Senza regole, senza etica, senza consapevolezza, la potenza dell’intelligenza artificiale rischia di trasformarsi in un’ombra lunga sulla nostra libertà.

La vera sfida, allora, non è tecnica, ma culturale: imparare a convivere con queste nuove intelligenze senza dimenticare la nostra; imparare a dialogare con l’IA senza perdere il dialogo con l’altro. Perché la tecnologia può accelerare il futuro, ma solo noi possiamo decidere se sarà un futuro abitabile, giusto, umano.

Per rimanere aggiornato sulle ultime opinioni, seguici su: il nostro sitoInstagramFacebook e LinkedIn

Classe 1984, è una giornalista che ha iniziato la sua carriera nel 2006 presso un'emittente locale, dove si occupava principalmente di cultura e attualità. La sua passione per il giornalismo e la comunicazione l'ha portata a collaborare con alcune delle più importanti testate nazionali, ampliando il suo raggio d'azione su una vasta gamma di temi.Nel corso degli anni, ha scritto di attualità, cultura, spettacoli, musica, cinema, gossip, cronache reali, bellezza, moda e benessere. Ha avuto l'opportunità di intervistare numerosi cantanti, attori e personaggi televisivi italiani e stranieri.Attualmente, scrive per le riviste Mio, Eva 3000 e Eva Salute, dove continua a esplorare i temi che da sempre la appassionano, con un occhio attento alle tendenze e ai cambiamenti del panorama mediatico e culturale.

Lascia un commento

Your email address will not be published.

Previous Story

Bullismo e Mobbing: istinto naturale o strumento di controllo sociale?

Next Story

Quanti sono gli studenti stranieri che vengono discriminati? E che cosa possiamo fare per porre fine al fenomeno?

Latest from Blog