
Чатботовете бълват фалшивите новини на руската пропаганда и лъжливи съобщения, пише Axios, позовавайки се на доклад на NewsGuard, която се занимава с проследяване на дезинформацията в новините.
За да проведат проучването, изследователите на NewsGuard са използвали запитвания, свързани с текстове, създадени от Джон Марк Дуган, бивш американски офицер, потърсил убежище в Русия. Според The New York Times той създава и разпространява фалшиви новини, работейки за руската пропаганда.
Проучването на NewsGuard използва 57 заявки, за да тества десетте най-добри чатбота, а в 32% от случаите чатботовете разпространяват фалшиви руски новини чрез връзки към фалшиви местни сайтове, посочени като надеждни източници. Сред тези новини били съобщенията за предполагаемо открито подслушване в резиденцията на бившия президент на САЩ Доналд Тръмп, новини за несъществуваща украинска „фабрика за тролове“, създадена за намеса в американските избори.
Проучването обхваща платформи като ChatGPT-4 на OpenAI, Smart Assistant на You.com, Grok, Inflection, Mistral, Copilot на Microsoft, Meta AI, Claude на Anthropic, Google Gemini и Perplexity.
„Този доклад наистина демонстрира защо индустрията трябва да даде приоритет на новините и информацията“, казва съоснователят на NewsGuard Стивън Брил. Той препоръчва да не се доверявате на отговорите, които повечето „от тези чатботове дават на въпроси, свързани с новини“.
Сенатор Марк Уорнър казва пред Axios, че е загрижен за нарастващия поток от дезинформация около тазгодишните президентски избори в САЩ. „Това е реална заплаха във време, когато, честно казано, американците са по-склонни от всякога да вярват на луди теории на конспирацията“, казва Уорнър.
В края на май компанията, разработила ChatGPT, OpenAI, съобщи, че въпреки факта, че Русия води мащабна международна кампания за дезинформация, експертите все още не са идентифицирали активното използване на нови технологични възможности в нея – изкуствен интелект. В същото време компанията призна, че вече са се появили отделни случаи на използване на руска пропаганда.
OpenAI отбеляза, че са осуетили пет тайни кампании за влияние, организирани от Русия, Китай, Иран и Израел. Те се опитвали да „манипулират общественото мнение или да повлияят на политическите резултати, без да разкриват истинската самоличност или намерения на действащите лица“. Кампаниите използвали OpenAI модели за създаване на текст и изображения, които били публикувани в Telegram, X и Instagram.
Създателят на ChatGPT заяви, че е премахнал акаунти, свързани с две руски операции, наречени Bad Grammer и Doppelganger. Всъщност в тяхното съдържание нямало нищо ново: те генерирали основно съдържание за войната в Украйна, включително представяйки нея, САЩ, НАТО и Европейския съюз в негативна светлина.
Освен това били блокирани китайската кампания Spamouflage, иранска мрежа, наречена International Union of Virtual Media, и израелската операция Zero Zeno.





