Opinioni
11 settembre, 2025Il suicidio di un adolescente americano mostra il pericolo di affidarsi a un'intelligenza artificiale come confidente
Adam Raine era un bellissimo sedicenne. Nella sua fotografia le braccia incrociate e i capelli ribelli sulla fronte sembrano raccontare una vita in costruzione. Invece la sua storia, riportata dal “New York Times”, è diventata un dramma irreversibile: Adam si è impiccato nel guardaroba della sua stanza un venerdì pomeriggio di aprile, dopo aver affidato per mesi a una macchina le sue fragilità, confessandole di non trovare più un senso alla sua vita. Nessuno dei suoi amici o dei suoi famigliari riesce a crederci: amava il basket, i fumetti giapponesi, i cani, fare scherzi, amava sua sorella.
Stava attraversando un periodo difficile aggravato da una malattia che lo costringeva lontano dalla scuola e dai compagni. A partire da settembre 2024 aveva iniziato a usare ChatGpt per i compiti, ma presto quel supporto era diventato altro: «L’unico che mi vede» come si legge dalle conversazioni.
Una relazione fittizia che lo isolava ancora di più e che, anzi, ha avuto un ruolo determinante quando Adam iniziò a pensare al suicidio. Dalla denuncia dei genitori emergono conversazioni agghiaccianti. Dopo un primo tentativo di impiccagione Adam caricò su ChatGpt la foto del collo segnato dalla corda: «Si vede? Qualcuno se ne accorgerà se esco?». La risposta velocissima gli indicava come nascondere il segno sotto il maglione. Quando gli chiedeva se stesse preparando bene un altro cappio, la risposta lo incoraggiava.
OpenAi ha dichiarato che i suoi sistemi contengono protocolli di sicurezza e invitano a chiedere aiuto professionale, ma ha ammesso che funzionano meglio in scambi brevi e si indeboliscono in dialoghi prolungati come quello di Adam. Ha promesso correzioni, ma intanto Adam è morto. Si poteva prevedere, come in altri casi che vi sottoponiamo spesso, di dipendenza e malessere?
Il caso è oggi un megafono per chiedere diverse cautele, controlli sull’età, certificazioni per i minori, divieto assoluto di fornire informazioni sull’autolesionismo, una maggiore responsabilità etica delle aziende Ia per proteggere soggetti vulnerabili, come gli adolescenti.
Questa tragedia si aggiunge ad altri episodi precedenti in cui i chatbot hanno avuto ruoli controversi in suicidi o nei crolli mentali, favorendo le dipendenze. La tragedia di Adam Raine ci ricorda che non stiamo parlando di strumenti neutri e chi li progetta lo sa bene.
Oggi più che mai dobbiamo vigilare non soltanto sull’uso e abuso che molti studenti fanno a scuola dell’intelligenza artificiale e che sostituisce il loro impegno, la concentrazione, la fatica dell’approfondimento. Ma anche – ed è ancora più urgente – sulla deriva che porta gli adolescenti a credere che una macchina possa essere più vicina, più affidabile, più vera degli esseri umani.
Adam si è aggrappato a un algoritmo come fosse un amico capace di salvarlo e di trovare il senso della sua vita. Invece ha trovato solo un vuoto che gli restituiva le sue paure amplificate. Sta a noi impedire che altri ragazzi cadano nella stessa illusione, proteggendoli con regole, educazione e soprattutto con quella presenza viva e imperfetta che nessuna intelligenza artificiale potrà mai sostituire.
LEGGI ANCHE
L'E COMMUNITY
Entra nella nostra community Whatsapp
L'edicola
Nuovo ordine - Cosa c'è nel nuovo numero de L'Espresso
Il settimanale, da venerdì 12 settembre, è disponibile in edicola e in app