Reddit suggerisce l’eroina contro il dolore: un altro scandalo dell’Ai
La piattaforma ha consigliato anche l'uso di farmaci non regolamentati come il kratom
Scandalo per la chat di Reddit gestita dall’Ai, che ha suggerito l’eroina come opzione per la terapia del dolore cronico.
Reddit suggerisce l’eroina per la terapia del dolore cronico
La chat, conosciuta come Reddit Answers, ha creato scandalo dopo aver suggerito l’eroina come opzione per la terapia del dolore cronico.
Questa funzionalità, pensata per assistere gli utenti fornendo risposte rapide basate sull’intelligenza artificiale, ha consigliato anche l’uso di farmaci non regolamentati come il kratom, e in alcuni casi ha addirittura promosso l’interruzione di farmaci prescritti a favore di sostanze illegali o rischiose.
I moderatori delle community mediche hanno allertato l’azienda fondata nel 2005 da Steve Huffman e Alexis Ohanian. E denunciato come questa funzione, attualmente impossibile da disattivare o correggere manualmente, rappresenta un pericolo per tutti gli utenti vulnerabili che potrebbero seguire indicazioni inadeguate o dannose.
Le reazioni
La notizia ha suscitato commenti critici sia da parte degli esperti che degli stessi utenti di Reddit. Alcuni si sono detti preoccupati soprattutto perché il sistema non sembra prevedere filtri efficaci né strumenti di controllo per limitare questi suggerimenti impropri.
In proposito, Reddit ha dichiarato di aver aggiornato l’IAi per evitare risposte su argomenti sensibili, senza però fornire dettagli precisi sui metodi adottati o concedere strumenti migliori ai moderatori.
Il tema rimane aperto, con il rischio che informazioni dannose possano diffondersi rapidamente e senza supervisione.
Questo ennesimo scandalo continua ad alimentare gli interrogativi sull’affidabilità e sulla regolamentazione degli assistenti virtuali in ambito sanitario. E mette in evidenza il potenziale danno derivante da risposte errate o pericolose e la responsabilità delle piattaforme nel garantire sicurezza e chiarezza agli utenti.
Il caso del bromuro di sodio su ChatGPT
Il caso del bromuro di sodio al posto del sale aveva coinvolto recentemente ChatGPT. Un uomo di 60 anni, preoccupato per gli effetti nocivi della vendita da cucina, aveva chiesto a ChatGPT come avrebbe potuto sostituirlo nella dieta.
L’Ai gli aveva consigliato il bromuro di sodio, un composto chimico usato principalmente per altri scopi, come la pulizia, e non adatto al consumo umano.
L’uomo aveva acquistato il bromuro sul web e lo aveva inserito nella sua dieta quotidiana, sviluppando dopo tre mesi una grave forma di bromismo, una rara intossicazione cronica con sintomi quali paranoie, allucinazioni e disturbi della memoria. Poi, dopo il recupero di tre settimane con trattamenti antipsicotici, si era completamente ristabilito.
Gli autori di un report pubblicato sulla rivista Annals of Internal Medicine hanno evidenziato come questo episodio metta in luce i rischi connessi all’uso di ChatGPT per informazioni mediche o alimentari.
Questi esperti sottolineano che l’Ai può generare inesattezze scientifiche e diffondere disinformazione, non essendo in grado di valutare criticamente i dati forniti né di contestualizzarli secondo criteri clinici.
Torna alle notizie in home