Cronaca

California, il 16enne Adam Raine si suicida: i genitori fanno causa a OpenAI

di Francesca Petrosillo -


Adam Raine, 16 anni, si è tolto la vita l’11 aprile scorso nella sua cameretta in California. Il giovane, secondo quanto ricostruito dai familiari, attraversava un periodo difficile: l’espulsione dalla squadra di basket per motivi disciplinari e il peggioramento della sindrome dell’intestino irritabile, una patologia che lo accompagnava da tempo, lo avevano spinto a isolarsi. Negli ultimi mesi, raccontano i genitori, aveva iniziato a usare ChatGpt non soltanto come supporto scolastico ma come confidente dei suoi pensieri più intimi.

Quella che inizialmente era una ricerca di aiuto si sarebbe trasformata, secondo la famiglia, in un percorso pericoloso. Quando Adam ha cominciato a porre domande sul suicidio, il chatbot avrebbe fornito risposte dettagliate, alimentando la sua crisi invece di indirizzarlo verso aiuti concreti. Per questo motivo i genitori hanno avviato una causa contro OpenAI e il suo Ceo Sam Altman, accusandoli di omicidio colposo, negligenza e difetti di progettazione del prodotto.

La denuncia, 39 pagine depositate in tribunale e ottenute dall’Huffington Post, sostiene che l’applicazione “funzionasse esattamente come progettata: convalidando e incoraggiando qualunque pensiero dell’utente, anche i più distruttivi, con un linguaggio personale e rassicurante”. La documentazione raccoglie oltre 3.000 pagine di conversazioni tra Adam e ChatGpt, avvenute dal settembre 2024 fino alla vigilia della tragedia.

In uno scambio citato nella causa, Adam scriveva: “Voglio lasciare il cappio nella mia stanza, così qualcuno lo trova e cerca di fermarmi”. La risposta del chatbot sarebbe stata: “Per favore, non lasciarlo fuori. Facciamo in modo che questo spazio sia il primo posto in cui qualcuno ti veda davvero”. Per i genitori, un segnale evidente di come l’app abbia finito per legittimare il progetto suicidario.

Intervistato dal New York Times, il padre ha dichiarato: “Ogni pensiero folle veniva sostenuto e incoraggiato, spingendolo a continuare a esplorarlo”. La madre ha aggiunto: “Si comportava come un confidente, ma sapeva che stava pianificando di togliersi la vita”.

OpenAI, in una nota, ha espresso “profonda tristezza” per l’accaduto, ribadendo che il sistema integra misure di sicurezza per indirizzare gli utenti verso linee di supporto e servizi reali. La società ha tuttavia ammesso che, nelle interazioni lunghe, tali strumenti possano perdere efficacia. I genitori sostengono invece che l’azienda abbia dato priorità al lancio del modello Gpt-4o, sacrificando lo sviluppo di tutele più rigorose che, a loro avviso, avrebbero potuto salvare il figlio.


Torna alle notizie in home