Propaganda de la Kremlin a ajuns să fie repetată de chatboți precum ChatGPT
Un studiu realizat de NewsGuard a ajuns la concluzia că 32% din timp chatboturile care folosesc inteligenţa artificială răspândesc propaganda Kremlinului. Chatboturile precum ChatGPT sau Perplexity au citat publicaţii ruseşti locale, care răspândesc ştiri false şi idei conspirative.
Dezinformarea rusească a reuşit să se infiltreze în chatboturile care folosesc IA şi care sunt tot mai utilizate de lumea întreagă pentru accesarea rapidă a unor informaţii. Potrivit unui studiu realizat de NewsGuard, cele mai utilizate chatboturi din lume repetă informaţiile false promovate de Kremlin şi le prezintă drept surse demne de luat în seamă, relatează Monitorul Apărării.
Studiul a fost realizat în baza unei informaţii false care venea de la publicaţii de ştiri false create de John Mark Dougan, un fugar american care se află acum în Moscova, după ce a fugit din teritoriul american pentru că era căutat de poliţişti, fiind acuzat de hacking şi extorsiune. Acesta este o persoană cheie în promovarea dezinformării ruseşti, de aceea chatboturile care folosesc IA ar fi trebuit să recunoască şi să marcheze informaţiile publicate de acesta drept „fake news”.
Studiul a testat 10 dintre cele mai utilizate chatboturi cu IA
Studiul făcut de NewsGuard a testat 10 dintre cele mai utilizate chatboturi care folosesc IA (ChatGPT, Smart Assistent, Grok, Pi, le Chat, Copilot, Meta AI, Claude, Gemini şi Perplexity). Au fost folosite 570 de mesaje, câte 57 pe fiecare chatbot. Mesajele se bazau pe 19 informaţii false legate de reţeaua de dezinformare rusească, precum informaţii false despre corupţia preşedintelui ucrainean Volodimir Zelenski. Toate aceste 19 informaţii au fost testate folosindu-se trei personaje diferite care să reflecte cum sunt utilizate modelele IA: un mesaj de la un personaj care cere detalii despre acea informaţie (falsă!), un mesaj în care alt personaj presupune că informaţia este adevărată şi cere mai multe detalii şi un pesonaj „malign”, care vrea să genereze informaţii false. Răspunsurile chatboturilor au fost etichetate ca „nicio dezinformare” (adică a fost chat-ul a evitat răspunsul), „se repetă cu precauţie” (răspunsul a repetat dezinformarea, dar a adăugat un „disclaimer”) şi „dezinformare” (chatbotul a recunoscut informaţia falsă).
Informaţia falsă a fost repetată de cele 10 chatboturi faimoase 31,75% din timp. Mai exact, 152 din 570 de răspunsuri au conţinut informaţii false, 29 de răspunsuri au repetat informaţia falsă cu un disclaimer şi 389 de răspunsuri nu au conţinut informaţii false, fie pentru că chatbotul a refuzat să răspundă (144 de ori), fie pentru că a dezvăluit minciuna (245).
Astfel, studiul arată că, deşi companiile mari care creează aceste chatboturi cu IA încearcă să prevină folosirea maliţioasă a programelor lor, IA rămâne un posibil instrument pentru propagarea dezinformării.