Дослідники виявили 49 сайтів зі створеними ШІ новинами
Платформа NewsGuard, що оцінює правдивість сайтів та відстежує дезінформацію, виявила, що в інтернеті поширюються десятки новинних ресурсів, створених чат-ботами зі штучним інтелектом.
Про це пише Bloomberg, повідомляє Dev.ua.
У новому звіті задокументовано 49 нових вебсайтів, заповнених інструментами ШІ, такими як ChatGPT, які видають себе за агентства новин.
Деякі виглядають як сайти термінових новин із такими загальними назвами, як News Live 79 і Daily Business Post, тоді як інші діляться порадами щодо способу життя, новинами про знаменитостей або публікують спонсорований вміст. Але ніхто не розголошує, що вони заповнюються за допомогою чат-ботів AI, таких як ChatGPT від OpenAI Inc. і, можливо, Google Bard від Alphabet Inc., які можуть генерувати докладний текст на основі простих підказок користувача. Багато вебсайтів почали публікуватися цього року, оскільки інструменти ШІ почали широко використовуватися громадськістю.
У кількох випадках NewsGuard задокументував, як чат-боти генерували неправду для опублікованих матеріалів. Лише у квітні вебсайт під назвою CelebritiesDeaths.com опублікував статтю під назвою «Байден помер. Гарріс, що виконує обов’язки президента, звернення о 9 ранку». А сайт TNewsNetwork опублікував неперевірену історію про загибель тисяч солдатів у російсько-українській війні на основі відео з YouTube.
Щоб знайти ці сайти, дослідники NewsGuard використовували пошук за ключовими словами за фразами, які зазвичай створюють чат-боти ШІ. Дослідники провели пошук за допомогою таких інструментів, як платформа аналізу соціальних мереж CrowdTangle, що належить Facebook, і платформа моніторингу медіа Meltwater. Вони також оцінювали статті за допомогою класифікатора тексту AI GPTZero, який визначає, чи ймовірно, що певні фрагменти написані повністю AI.
Кожен із сайтів, проаналізованих NewsGuard, опублікував принаймні одну статтю з повідомленням про помилку, яке зазвичай трапляється в тексті, згенерованому штучним інтелектом, і кілька представлених підроблених профілів авторів.
Співвиконавчий директор NewsGuard Гордон Кровіц сказав, що звіт групи показує, що такі компанії, як OpenAI та Google, повинні подбати про те, щоб навчити свої моделі не вигадувати новини. «Використання моделей штучного інтелекту, відомих тим, що вигадують факти, щоб створювати те, що лише виглядає як новинні вебсайти, є шахрайством, яке маскується під журналістику», — сказав Кровіц, колишній видавець Wall Street Journal.
OpenAI не відразу відповіла на запит про коментарі, але раніше заявляла, що використовує поєднання рецензентів і автоматизованих систем для виявлення та запобігання зловживанням своєю моделлю, включаючи видачу попереджень або, у серйозних випадках, заборону користувачів.
У відповідь на запитання Bloomberg про те, чи створені штучним інтелектом вебсайти порушували їхню рекламну політику, речник Google Майкл Акіман сказав, що компанія не дозволяє показувати рекламу разом зі шкідливим або спам-контентом або контентом, скопійованим з інших сайтів.
«Застосовуючи цю політику, ми зосереджуємося на якості вмісту, а не на тому, як він був створений, і ми блокуємо або припиняємо показ реклами, якщо виявляємо порушення», — сказав Асіман у заяві.
У Google зазначають, що наявність контенту, створеного штучним інтелектом, за своєю суттю не є порушенням її рекламної політики, але вона оцінює контент відповідно до наявної політики видавців. Крім того, було сказано, що використання автоматизації, включаючи штучний інтелект, для створення контенту з метою маніпулювання рейтингом у результатах пошуку порушує політику компанії щодо спаму.