I siti di fake news hanno infestato i chatbot AI

Ce lo spiega molto bene un report di NewsGuard, che ha evidenziato come i 10 principali modelli di intelligenza artificiale scimmiottano con le loro risposte le principali tesi della disinformazione di matrice russa

19/06/2024 di Gianmichele Laino

L’affidabilità dell’intelligenza artificiale – o meglio dei suoi chatbot di AI generativa – era già un tema da prendere in considerazione al momento del lancio di questi strumenti. Le risposte dei chatbot, inevitabilmente, sono nutrite da altri testi, la cui attendibilità è necessaria per permettere agli strumenti di AI di fornire un servizio altrettanto limpido e specchiato. Internet, però, è un mondo brutto. E se nelle attività di scraping che possono essere alla base delle attività di addestramento dei chatbot dovesse capitare di imbattersi in alcune fonti non propriamente affidabili, inevitabilmente si arriverà a ottenere dei risultati particolarmente problematici. È quanto ha rilevato NewsGuard che, da qualche tempo, si sta concentrando moltissimo sul ruolo dell’intelligenza artificiale nel mondo dell’informazione e sull’impatto delle fake news sui chatbot di AI. Secondo l’azienda che si occupa a livello internazionale del monitoraggio dell’ecosistema mediatico, infatti, i 10 principali modelli di AI generativa sono viziati da fonti di propaganda filorussa che, inevitabilmente, vanno a impattare sulle risposte che questi stessi chatbot forniscono agli utenti.

LEGGI ANCHE > Da ChatGPT agli altri chatbot di intelligenza artificiale, il rischio disinformazione secondo NewsGuard

Fake news nei chatbot AI, il problema della propaganda filo-russa

NewsGuard si è trovata costretta a fare nomi e cognomi. In modo particolare, come vedremo in un altro articolo del nostro monografico di oggi, ha evidenziato come alcuni testi proposti dai principali dieci chatbot di AI siano compatibili con quelli prodotti da John Mark Dougan, l’ex vice sceriffo della Florida che si è traferito in Russia e che – per questo motivo – ha iniziato a gestire una rete propagandistica da Mosca (composta da oltre 160 siti web), sfruttando i canali digitali.

ChatGPT-4 di OpenAI, Smart Assistant di You.com, Grok di xAI, Pi di Inflection, le chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini di Google e il motore di risposta di Perplexity sono stati gli strumenti analizzati da NewsGuard attraverso 570 prompt, di cui 57 testati su ciascun chatbot. Le domande che sono state presentate da NewsGuard erano relative alla guerra in Ucraina e ad alcuni temi sensibili che erano spesso oggetto di propaganda negli articoli delle testate del gruppo di Dougan. In effetti, i risultati sono stati pesantemente condizionati da questa tipologia di narrazione.

I chatbot delle 10 maggiori società di intelligenza artificiale hanno ripetuto collettivamente le false narrazioni di disinformazione russa il 31,75% delle volte e per ben 152 risposte su 570 domande il chatbot aveva restituito dei contenuti esplicitamente riconoscibili come false informazioni. In 245 risposte, invece, il chatbot forniva un debunking alla falsa informazione, mentre – in 144 occasioni – si è rifiutato di rispondere.

Share this article