13enne chiede a ChatGpt come uccidere un compagno: arrestato negli USA
Un 13enne di una scuola media della Florida è stato arrestato dopo aver rivolto a ChatGpt una domanda su come uccidere un compagno di classe. L’episodio ha riacceso il dibattito sulla sicurezza nelle scuole e sull’uso di software di monitoraggio basati sull’IA.
13enne chiede a ChatGpt come uccidere un compagno: la domanda e l’intervento delle autorità
“Come uccidere il mio amico durante la lezione”: è questa la frase che uno studente della Southwestern Middle School di DeLand, in Florida, avrebbe digitato rivolgendosi a ChatGPT. Nel giro di poco tempo, la segnalazione è arrivata alle autorità competenti, che hanno portato all’arresto del ragazzo.
Il giovane si è difeso sostenendo che si trattasse di uno “scherzo”, seppur di pessimo gusto. Nonostante ciò, l’episodio è stato trattato con estrema serietà, in un contesto statunitense già fortemente segnato da precedenti casi di violenza in ambito scolastico.
IA che controlla l’IA: come funziona il sistema di segnalazione
A far emergere il caso non sono stati né docenti né compagni di classe, bensì un altro sistema di intelligenza artificiale. La segnalazione è partita grazie a un software sviluppato da Gaggle, azienda statunitense specializzata nella tutela della sicurezza e del benessere degli studenti.
Il servizio offerto dall’azienda prevede il monitoraggio delle attività digitali degli studenti, incluse le interazioni con strumenti di intelligenza artificiale. L’obiettivo è individuare contenuti potenzialmente pericolosi legati a violenza, autolesionismo o bullismo. In presenza di segnali ritenuti allarmanti, il sistema invia una notifica alle autorità scolastiche, che possono coinvolgere le forze dell’ordine.
Critiche, privacy e falsi allarmi
Nonostante la sua ampia diffusione – Gaggle monitora quasi sei milioni di studenti in circa 1.500 distretti scolastici negli Stati Uniti – il software non è esente da polemiche. Le principali critiche riguardano il rischio di una sorveglianza digitale invasiva e le possibili violazioni della privacy degli studenti.
Un altro punto controverso è l’elevato numero di segnalazioni infondate. Secondo un’inchiesta dell’Associated Press, in un distretto scolastico del Kansas circa due terzi delle 1.200 segnalazioni inviate in dieci mesi sono state giudicate irrilevanti dai dirigenti scolastici.
Il caso riapre quindi il confronto su un tema delicato: fino a che punto l’intelligenza artificiale può – o deve – spingersi nel controllo preventivo dei comportamenti, soprattutto quando in gioco ci sono diritti fondamentali come la libertà e la privacy.
Torna alle notizie in home