Più informazioni (per legge) contro le allucinazioni dell’intelligenza artificiale
La decisione dell'Antitrust, gli obblighi per le aziende: arriva il disclaimer
Che l’intelligenza artificiale soffra di allucinazioni lo sapevamo già, adesso sappiamo pure che le piattaforme e i chatbot dovranno avvisare in maniera ancora più chiara e netta gli utenti. Il rischio di prendere fischi per fiaschi e di riferire sciocchezze (nella migliore delle ipotesi) o vere e proprie fake news nocive o potenzialmente pericolose (e le cronache già ne son piene di casi simili) c’è. E non si può più lasciar correre. Perché si tratta di un problema serio che può avere un impatto importante sulla vita delle persone.
Le allucinazioni dell’intelligenza artificiale
L’Antitrust italiana, nei giorni scorsi, ha dato notizia di aver chiuso tre istruttorie nei confronti di DeepSeek, Nova Ai e Mistral. Il caso, anzi i tre casi, si sono conclusi con l’impegno da parte delle aziende “editrici” dei chatbot a rafforzare ancora di più le avvertenze per gli utenti. Le società hanno assunto specifici obblighi per rafforzare la trasparenza informativa sul rischio di allucinazioni dei sistemi di intelligenza artificiali offerti, intervenendo sui canali di fruizione dei servizi (siti internet e app) e nelle varie fasi del processo decisionale che precede l’acquisto o la registrazione.
Un disclaimer permanente
Per avvisare al meglio gli utenti dei rischi delle allucinazioni per l’intelligenza artificiale sarà necessario esibire sulle piattaforme un disclaimer permanente. Un avviso, redatto rigorosamente in lingua italiana, che renda edotti i consumatori della presenza, e dell’esistenza stessa del fenomeno delle allucinazioni, anche con hyperlink dedicati. Inoltre è stata integrata e arricchita l’informativa precontrattuale con esplicite avvertenze sui limiti di affidabilità dei contenuti generati e sulla necessità di verificarli. Basterà? Chissà. Intanto (almeno) un primo passo è stato mosso.
Torna alle notizie in home