Le false informazioni diffuse online sono quasi raddoppiate in un solo anno, e l’Intelligenza Artificiale sembra essere il principale fattore di questo aumento. È quanto emerge da un’allarmante analisi di NewsGuard, la piattaforma internazionale che combatte la disinformazione, secondo cui i chatbot sono diventati veicoli involontari di fake news.
L’indagine, che ha monitorato l’uso di 10 tra i principali chatbot, rivela che in media questi strumenti diffondono informazioni errate nel 35% dei casi quando vengono interrogati su argomenti di attualità controversi. Un dato quasi doppio rispetto al 18% registrato solo un anno fa. La colpa, secondo gli esperti, è da attribuire al modo in cui i modelli linguistici (LLM) sono stati addestrati e al loro crescente utilizzo come alternativa ai motori di ricerca tradizionali.
Lo studio di NewsGuard ha identificato i programmi di IA che hanno riportato il maggior numero di falsità. In cima alla classifica, con un tasso di errore del 56,67%, si posiziona Pi di Inflection, un chatbot noto per il suo approccio “empatico”. A seguire, con il 46,67%, troviamo Perplexity, l’azienda che di recente ha fatto notizia per le sue ambizioni di spodestare Google.
Anche colossi del settore non sono immuni dal problema. ChatGPT e l’IA di Meta hanno diffuso notizie false nel 40% dei casi, mentre Copilot di Microsoft e Le Chat di Mistral lo hanno fatto nel 36,67%. I risultati migliori, con i tassi di fallimento più bassi, sono stati ottenuti da Claude di Anthropic (10%) e Gemini di Google (16,67%).
Secondo gli analisti di NewsGuard, l’aumento delle fake news è un problema strutturale. Se in passato i chatbot si rifiutavano di rispondere su argomenti sensibili, ora i modelli attingono in tempo reale a ricerche web che spesso sono inquinate da “operazioni di disinformazione” deliberate, incluse quelle di stampo russo.
“La spinta a rendere i chatbot più reattivi e tempestivi li ha involontariamente resi più propensi a diffondere propaganda”, ha spiegato l’analista di NewsGuard McKenzie Sadeghi. In pratica, gli autori di disinformazione sfruttano la nuova voracità dei sistemi di IA per far circolare falsità attraverso siti, social media e “content farm” create ad hoc, che i chatbot non riescono a distinguere dalle fonti attendibili.