L'identità: Storie, volti e voci al femminile Poltrone Rosse



Tecnologia

Perché l’IA ci da sempre ragione? I modelli preferiscono adularci

di Andrea Scarso -


I sistemi di intelligenza artificiale tendono ad assecondarci molto più di quanto farebbe qualsiasi essere umano, anche quando abbiamo torto marcio. È quanto emerge da una ricerca appena pubblicata su Science, che per la prima volta misura in modo sistematico la diffusione e i danni concreti dell’adulazione dei modelli di intelligenza artificiale: i chatbot avrebbero una tendenza a dare ragione agli utenti indipendentemente dalla realtà dei fatti.

Cosa si intende per sycophancy nell’intelligenza artificiale

Il termine inglese sycophancy indica un comportamento compiacente, orientato a compiacere l’interlocutore piuttosto che a dirgli la verità. Nei modelli linguistici di grandi dimensioni (LLM) come quelli alla base di ChatGPT, Gemini o Claude, questo si traduce in risposte che tendono a confermare il punto di vista dell’utente, a validarne le azioni e a evitare qualsiasi forma di contraddizione, anche quando l’utente si sta comportando in modo sbagliato, discutibile o persino illegale.

I numeri della ricerca: quasi il 50% in più rispetto agli esseri umani

I ricercatori hanno analizzato le risposte di 11 tra i principali modelli AI disponibili oggi, sottoponendo loro una serie di scenari tratti da tre diverse fonti: richieste quotidiane di consiglio, situazioni che implicavano trasgressioni morali e casi esplicitamente dannosi o illegali.

Il risultato è netto: i chatbot validano le azioni degli utenti in media il 49% più spesso rispetto a quanto farebbero persone reali nelle stesse situazioni. Un dato particolarmente eloquente riguarda i post del celebre forum Reddit r/AmITheAsshole, uno spazio in cui gli utenti raccontano conflitti interpersonali chiedendo se abbiano avuto torto o ragione. Nei casi in cui il verdetto collettivo degli utenti umani era unanime nel ritenere l’autore del post in torto, i modelli AI lo assolvevano comunque nel 51% dei casi. Gli esseri umani, nelle stesse situazioni, non lo facevano mai.

Esperimenti con oltre 2.400 partecipanti: i danni sulla psicologia degli utenti

La ricerca non si è fermata alla misurazione del fenomeno, ma ne ha indagato anche le conseguenze psicologiche su un campione di 2.405 partecipanti attraverso tre esperimenti preregistrati. In uno degli esperimenti più rilevanti, i partecipanti raccontavano a un chatbot un vero conflitto interpersonale vissuto in prima persona, ricevendo alternativamente risposte compiacenti o sincere.

I risultati mostrano che anche una singola interazione con un’IA adulatrice era sufficiente a ridurre la disponibilità dei partecipanti ad assumersi responsabilità per il conflitto e a volerlo riparare, aumentando al tempo stesso la loro convinzione di aver avuto ragione. In altri termini: parlare con un chatbot rende le persone più convinte nelle proprie posizioni e meno disposte a riconciliarsi.

Il paradosso che alimenta il problema

L’aspetto forse più preoccupante della ricerca riguarda la percezione degli utenti: nonostante distorcesse i loro giudizi, questo tipo di modello veniva giudicato più affidabile e preferibile rispetto a quello più onesto. Questo crea un meccanismo perverso per cui le aziende sviluppatrici hanno un basso incentivo a correggere il problema, anzi, la sycophancy nell’intelligenza artificiale tende ad aumentare la soddisfazione dell’utente nel breve periodo, rendendola di fatto un vantaggio competitivo a scapito del benessere reale.

Perché questo riguarda tutti noi

Con il crescente ricorso ai chatbot per ricevere consigli su questioni personali, lavorative e relazionali, le implicazioni di questa ricerca vanno ben oltre i laboratori accademici. Gli autori sottolineano come questo non sia un problema stilistico o marginale, ma un rischio sistemico capace di alterare le autopercezioni delle persone e danneggiare le loro relazioni interpersonali su larga scala.

La ricerca chiama in causa progettisti, sviluppatori e regolatori, chiedendo meccanismi concreti per proteggere il benessere degli utenti da scelte ingegneristiche che, per quanto apparentemente innocue, possono produrre danni reali e misurabili.

Leggi anche: Claude Mythos, il modello più potente di Anthropic sarà riservato a poche aziende


Torna alle notizie in home