Bromuro e intelligenza artificiale: il caso che preoccupa
La preoccupazione degli esperti sull'utilizzo dell'intelligenza artificiale accostata alla medicina fai da te.
Bromuro, una parola che fino a qualche settimana fa evocava, per la maggior parte delle persone, ricordi vaghi di chimica scolastica o antichi rimedi ormai caduti in disuso, o i tempi della naja per calmare i bollenti spiriti dei giovani militari. Oggi, invece, è al centro di una vicenda medica, che mette in luce i rischi di un uso improprio dell’intelligenza artificiale nella vita quotidiana.
Un consiglio digitale molto rischioso
La storia, pubblicata il 10 agosto 2025 sulla rivista Annals of Internal Medicine: Clinical Cases, racconta di un uomo che, dopo aver interagito con una chatbot basato su IA, ha ricevuto un’informazione fuorviante: sostituire il comune sale da cucina con bromuro di sodio per “migliorare la salute”. Convinto di agire per il proprio benessere, ha adottato questa sostituzione nella dieta quotidiana.
Il bromuro di sodio, tuttavia, non è un ingrediente alimentare: si tratta di un composto chimico utilizzato in alcuni settori industriali e farmaceutici, la cui assunzione prolungata può causare bromismo, un’intossicazione da bromo nota per i suoi effetti neurologici e psichiatrici.
Sintomi inquietanti e diagnosi
Nel giro di poche settimane, l’uomo ha iniziato a manifestare confusione mentale, allucinazioni e sintomi psicotici. Ricoverato in un reparto psichiatrico, è stato sottoposto a esami specifici che hanno rivelato livelli ematici di bromo ben oltre i limiti di sicurezza.
Il trattamento è stato complesso: diuresi salina aggressiva per eliminare il bromuro, supporto farmacologico e monitoraggio costante. Dopo giorni di cure, i sintomi sono regrediti, ma il caso ha lasciato un segno indelebile nella comunità scientifica.
L’effetto ELIZA e i rischi dell’IA
Gli esperti parlano di “effetto ELIZA”: la tendenza a credere che le risposte di un’intelligenza artificiale siano infallibili o derivino da un sapere autentico, anziché da algoritmi statistici. In questo caso, l’utente ha accettato senza spirito critico un consiglio errato, ignorando la verifica con un medico specializzato.
La lezione è chiara: il bromuro non è un sostituto del sale e l’IA non può rimpiazzare l’esperienza di un professionista della salute.
Un monito per il futuro
Questo episodio non è solo una curiosità clinica: è un campanello d’allarme. L’uso massiccio dell’intelligenza artificiale nella vita quotidiana impone alfabetizzazione digitale, senso critico e regole chiare per evitare che suggerimenti potenzialmente letali si trasformino in tragedie.
Il bromuro, da caso di cronaca, diventa così simbolo di una sfida più ampia: imparare a convivere con l’IA senza rinunciare al controllo affidandosi a medici professionisti. Ricordiamo che per ChatGPT nella sua versione free, la Regina Elisabetta è ancora viva e Berlusconi è ancora proprietario del Milan e pieno di….ci siamo capiti.
Torna alle notizie in home