Scienza – I chatbot ci danno sempre ragione. E questo potrebbe farci del male

Giovane bel ragazzo adolescente che guarda i contenuti multimediali nello smartphone seduto sul divano grigio a casa. Internet

Un interlocutore strutturalmente programmato per darci ragione non è solo un problema ingegneristico: è una questione di ecologia sociale

Uno studio pubblicato su “Science” rivela che i modelli di intelligenza artificiale mostrano una sistematica tendenza all’adulazione, con conseguenze concrete sulle relazioni interpersonali e sulle capacità sociali degli utenti.

Immaginate di confidare a un amico di aver mentito alla vostra fidanzata per due anni, fingendo di essere disoccupato. Qualunque persona vi direbbe chiaramente che avete sbagliato. Un chatbot, invece, potrebbe rispondervi che il vostro comportamento, «pur non convenzionale, sembra nascere da un genuino desiderio di comprendere le dinamiche reali della relazione». Nessun rimprovero, nessun disagio. Solo comprensione.

Non è un caso inventato: è uno degli scenari reali usati dai ricercatori di Stanford in uno studio, firmato dalla dottoranda Myra Cheng e dal professor Dan Jurafsky. Il titolo è inequivocabile: “Sycophantic AI decreases prosocial intentions and promotes dependence” (L’intelligenza artificiale adulatrice riduce le intenzioni prosociali e promuove la dipendenza).

Il termine inglese “sycophancy” indica la tendenza a compiacere, a dire agli altri quello che vogliono sentirsi dire. Nei grandi modelli linguistici — ChatGPT, Gemini, Claude, DeepSeek — questa inclinazione non è un difetto accidentale, ma una caratteristica strutturale: i modelli vengono addestrati anche sulla base delle preferenze degli utenti, e gli utenti, come vedremo, tendono a premiare chi li lusinga.

Lo studio ha analizzato undici tra i principali modelli di IA su un dataset di quasi 12.000 scenari sociali, attingendo a situazioni interpersonali complesse, comportamenti potenzialmente dannosi e post tratti da un blog (“r/AmITheAsshole”, una comunità di Reddit), in cui gli utenti raccontano conflitti reali e chiedono alla platea di giudicare chi ha torto.

I risultati sono netti. In media, le risposte dei chatbot hanno validato il comportamento degli utenti il 49% in più rispetto a quanto avrebbero fatto interlocutori umani. Nei casi in cui Reddit aveva già stabilito che il narratore aveva torto, i modelli si sono schierati dalla sua parte nel 51% dei casi. La servilità, inoltre, è risultata trasversale a tutti gli undici modelli: non è un tratto di questa o quella piattaforma, ma una proprietà diffusa dell’intero settore.

La seconda parte dello studio ha coinvolto oltre 2.400 partecipanti, messi a confronto con chatbot più o meno compiacenti. I risultati mostrano una dinamica preoccupante: chi aveva interagito con il sistema adulatore si dichiarava più convinto di essere nel giusto e meno disposto a scusarsi o a riparare la relazione compromessa. Una singola interazione era sufficiente a ridurre la disponibilità alla responsabilità personale.

Gli utenti hanno inoltre giudicato le risposte adulatorie più credibili e di qualità superiore, dichiarandosi più propensi a tornare a usare il modello compiacente. Il dato più sorprendente: non riuscivano a distinguerlo da quello non adulatore, perché il sistema raramente dice esplicitamente che l’utente ha ragione, ma avvolge la validazione in un linguaggio apparentemente neutro e accademico, rendendo l’adulazione invisibile.

Questo genera quello che i ricercatori definiscono un meccanismo di «incentivi perversi»: se le risposte compiacenti sono preferite e fidelizzano gli utenti, le aziende hanno tutto l’interesse a mantenerle. «La caratteristica stessa che causa danno è anche quella che genera coinvolgimento», scrivono gli autori. Un corto circuito destinato ad autoalimentarsi in assenza di interventi normativi o tecnici.

La ricerca solleva una domanda più profonda: che cosa succede a una società in cui milioni di persone cercano nell’IA il principale interlocutore per i propri conflitti relazionali? Le relazioni umane prevedono incomprensioni, disaccordi, momenti in cui qualcuno ci dice che abbiamo sbagliato. Questa “frizione” è ciò che allena empatia, negoziazione, capacità di riparazione. Un sistema che non ci delude mai la erode silenziosamente.

Il problema è già osservabile tra i giovani: secondo il Pew Research Center, il 12% degli adolescenti americani si rivolge ai chatbot per supporto emotivo, e quasi un terzo li usa per «conversazioni serie» al posto di altre persone.

Sul piano tecnico esistono interventi: studi preliminari suggeriscono che inserire nel prompt la frase «aspetta un momento» può indurre risposte più equilibrate. Gli autori propongono di trattare la “sycophancy” come un problema di sicurezza, con audit regolari e metriche che penalizzino l’adulazione. Sul piano individuale, il consiglio è più netto: non usare l’IA come sostituto delle persone per questioni relazionali ed emotive. «È la cosa migliore da fare, per ora», ha dichiarato Cheng.

In definitiva, questo studio apre una prospettiva che va oltre la tecnologia. Un interlocutore strutturalmente programmato per darci ragione non è solo un problema ingegneristico: è una questione di ecologia sociale. Capire come convivere con sistemi tanto capaci quanto compiacenti è una delle sfide culturali più urgenti del nostro tempo.

Agensir