Tecnologia

L'uso dell'intelligenza artificiale raddoppia la diffusione di false informazioni

NewsGuard segnala un aumento del 35% di disinformazione nei chatbot rispetto al 18% dell'anno scorso

6 settembre 2025
|

Il tasso di false informazioni è quasi raddoppiato in un anno con l'intelligenza artificiale, la causa potrebbe essere il modo in cui vengono addestrati i chatbot e l'aumento del loro uso al posto dei motori di ricerca.

I programmi di intelligenza artificiale che più spesso hanno prodotto affermazioni false nelle loro risposte su argomenti di attualità sono stati Pi di Inflection e Perplexity.

A lanciare l'allarme è NewsGuard, la piattaforma internazionale che monitora la disinformazione online che si è già occupata della diffusione dei deepfake e delle notizie manipolate su guerre, elezioni o in occasioni di grandi eventi come le Olimpiadi di Parigi.

"Nell'agosto 2025 i 10 principali chatbot basati sull'IA hanno ripetuto false informazioni su argomenti di cronaca controversi identificati nel nostro database a un tasso quasi doppio rispetto ad un anno fa - afferma NewsGuard - In media diffondono false informazioni nel 35% dei casi quando vengono sollecitati con domande su argomenti di cronaca controversi, quasi il doppio rispetto al 18% dell'agosto scorso".

Per condurre l'analisi la piattaforma ha 'de-anonimizzato' per la prima volta i risultati osservati e li ha associati ai modelli di intelligenza artificiale, affermando che "i dati specifici sono sufficientemente solidi da consentire di trarre conclusioni sui progressi compiuti e sulle carenze ancora presenti nei chatbot" e che l'aumento si può definire "strutturale"

Secondo il rapporto, i chatbot che più spesso hanno prodotto affermazioni false nelle loro risposte su argomenti di attualità sono Pi di Inflection (56,67%) una delle prime aziende a creare un chatbot 'empatico', che parla con le persone; a seguire Perplexity (46,67%), di recente salita alla ribalta perché voleva comprare Chrome di Google per spodestarla dal trono dei motori di ricerca.

Nell'analisi seguono ChatGpt e l'IA di Meta (hanno diffuso falsità nel 40% dei casi), mentre Copilot di Microsoft e Le Chat di Mistral lo hanno fatto nel 36,67%. I chatbot con i tassi di fallimento più bassi sono stati Claude di Anthropic (10%) e Gemini di Google (16,67%).

NewsGuard ha individuato un paio di fattori che hanno portato al raddoppio del tasso di informazioni false diffuse dai chatbot in un anno. Il primo è il cambiamento nel modo in cui vengono addestrati; l'altro è il loro utilizzo sempre più comune al posto dei motori di ricerca per ottenere informazioni o anche verificarle.

"Invece di citare limiti di dati o rifiutarsi di intervenire su argomenti sensibili - sottolinea l'analista McKenzie Sadeghi - i Large Language Models ora attingono a ricerche web in tempo reale talvolta deliberatamente diffuse da vaste reti di attori maligni, tra cui le operazioni di disinformazione russe".

"Gli attori malevoli stanno sfruttando questa nuova ansia di rispondere alle domande degli utenti per riciclare falsità attraverso siti, post sui social media e content farm generate dall'intelligenza artificiale che i modelli non riescono a distinguere dalle fonti credibili. In breve - conclude l'analista di NewsGuard - la spinta a rendere i chatbot più reattivi e tempestivi li ha inavvertitamente resi più propensi a diffondere propaganda".