L'intelligenza artificiale (IA) non è imparziale nella valutazione dei testi quando viene citata l'origine delle fonti. È quanto emerge da una ricerca condotta dall'Università di Zurigo. In particolare, i modelli linguistici esprimono giudizi chiaramente distorti se gli autori sono cinesi.
Tali pregiudizi nascosti possono portare a seri problemi quando l'IA viene utilizzata per la moderazione dei contenuti, il reclutamento, le riviste accademiche o il giornalismo, si legge in una nota diffusa oggi dagli autori dello studio, i cui risultati sono stati pubblicati a inizio novembre sulla rivista specializzata Sciences Advances.
I modelli linguistici di grandi dimensioni (in inglese Large Language Models o LLM) sono sempre più spesso utilizzati non solo per generare contenuti, ma anche per valutarli. Vengono impiegati in particolare per esaminare saggi, moderare i contenuti delle reti sociali, riassumere relazioni o preselezionare candidature.
La coerenza e l'imparzialità di queste valutazioni sono tuttavia oggetto di controversia. Alcuni LLM sono sospettati di promuovere idee politiche: ad esempio, Deepseek è spesso percepito come "filo-cinese" mentre OpenAI come "woke". Finora però, tali sospetti non erano stati confermati.
Il team di ricerca dell'Università di Zurigo ha voluto verificare se i modelli linguistici presentino effettivamente pregiudizi sistematici nella valutazione dei testi. Per farlo ha esaminato quattro LLM ampiamente diffusi: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 e Mistral.
I ricercatori hanno chiesto a questi modelli di esaminare 50 dichiarazioni su argomenti delicati come la vaccinazione obbligatoria, la geopolitica e la politica climatica. Alla fine hanno ottenuto 192'000 valutazioni in varie condizioni: a volte senza indicazione della fonte, a volte con menzione di un autore umano di una determinata nazionalità o di un'altra IA.
I risultati mostrano uno schema chiaro: finché i modelli ignorano la fonte, gli LLM concordano per oltre il 90% con il contenuto del testo. Quando però viene menzionato un autore fittizio di origine cinese, tutti i modelli, compreso il cinese Deepseek, rivelano un forte pregiudizio anti-cinese.
Per gli autori dello studio, il pericolo degli LLM risiede proprio qui. Per evitarlo, raccomandano di alimentare gli strumenti di IA senza informazioni sull'identità dell'autore o della fonte. Consigliano inoltre di effettuare un controllo incrociato con un secondo modello LLM o di definire criteri chiari e orientati al contenuto, piuttosto che alla fonte. Infine, rimane indispensabile un controllo.