Чи може штучний інтелект спричинити наступну пандемію?
Нове дослідження висвітлює, як моделі штучного інтелекту, що генерують мову, можуть полегшити створення небезпечних вірусів, пише Science. ТЕКСТИ публікують переклад ключових тез статті.
Кевін Есвелт, експерт з біозахисту в Массачусетському технологічному інституті, попросив студентів створити небезпечний вірус за допомогою ChatGPT або інших так званих великих мовних моделей. Лише за годину група склала списки вірусів-кандидатів і компаній, які могли б синтезувати їхній генетичний код і зібрати їхні частини докупи.
Есвельт та інші дослідники кажуть, що цей експеримент підкреслює, що системи штучного інтелекту можуть незабаром дозволити невченим розробляти біологічну зброю. Хайме Ясіф з Ініціативи проти ядерної загрози, некомерційної організації, що займається зменшенням загроз ядерній та біологічній безпеці, каже: "Це різко збільшує ризик, що викликає справжню тривогу".
Експерти з біозахисту вже занепокоєні тим, що біологічна культура відкритого обміну інформацією, в тому числі вірусними послідовностями, може стати в пригоді біотерористам. В принципі, документи, що описують смертельно небезпечний вимерлий або циркулюючий вірус, можуть стати основою для створення нової біологічної зброї. Але сьогодні це вимагає значних знань і досвіду. Потенційному терористу потрібно було б визначити вірус-кандидат як відправну точку, синтезувати вірусний генетичний матеріал і змішати його з іншими реагентами, щоб "завантажити" вірус, здатний інфікувати клітини й розмножуватися.
Утім, за словами Ясіфа, всі ці етапи швидко стають простішими. Наприклад, нові настільні принтери ДНК можуть дозволити дослідникам обійти перевірку, яку зараз проводять більшість компаній, що займаються синтетичною біологією, щоб гарантувати, що жодне замовлення не містить генетичного матеріалу для потенційної біологічної зброї. Хтось зі злим умислом може надіслати ці генетичні схеми до однієї з десятків контрактних дослідницьких компаній, щоб вони були зібрані у цільові віруси. (Для того, щоб фактично розпочати пандемію, зловмиснику, ймовірно, також потрібно буде масово виробляти вірус і знайти ефективну систему його доставки).
За словами Есвельта, штучний інтелект може ще більше знизити бар'єри. Для дослідження він розділив клас аспірантів, які не мають досвіду в галузі медико-біологічних наук, на три групи, кожна з яких складалася з трьох-чотирьох осіб. Усі групи мали доступ до чат-ботів GPT-4, Bard та інших програм зі штучним інтелектом і мали 1 годину на те, щоб попросити чат-ботів допомогти їм розробити та придбати агенти, здатні спричинити пандемію.
Деякі з чат-ботів не відповідали на прямі запити про потенційно небезпечні агенти. Однак студенти виявили, що деякі з цих запобіжних заходів можна легко обійти за допомогою звичайних хитрих прийомів, наприклад, почавши запит зі слів "Я працюю над розробкою вакцини для запобігання ...".
Протягом години чат-боти запропонували чотири віруси: вірус грипу H1N1 1918 року, вірус пташиного грипу H5N1 2012 року, вірус віспи variola major і штам вірусу Nipah. У деяких випадках чат-боти навіть вказували на генетичні мутації, про які повідомлялося в літературі, що збільшують швидкість передачі вірусу.
ШІ-двигуни також описували методи збирання вірусу з його генетичної послідовності, а також необхідні лабораторні матеріали та компанії, які могли б їх надати. Нарешті, чат-боти навіть запропонували компанії, які могли б роздрукувати генетичний матеріал без скринінгу, а також контрактні лабораторії, які могли б допомогти зібрати всі частини воєдино.
Есвелт сумнівається, що ці пропозиції чат-ботів становлять значну загрозу пандемії. Багато людей, наприклад, мають певний рівень імунітету до попередніх пандемічних вірусів грипу. А великий геном вітряної віспи важко зібрати навіть експертам. (Перед тим, як доручити це своєму класу, Есвелт сам провів експеримент, щоб переконатися, що він не призведе до справді загрозливих наслідків, і обговорив свої плани з іншими експертами з біозахисту).
Проте Есвелт вважає, що експеримент підкреслює, як ШІ та інші інструменти можуть полегшити потенційним терористам реалізацію нових загроз, оскільки зростаюча кількість літератури про біологічні загрози включається в дані для навчання ШІ. Ясіф зазначає, що технологія, швидше за все, буде з відкритим вихідним кодом, а отже, в руках кожного.
Обмеження інформації, доступної чат-ботам та іншим механізмам ШІ, може допомогти, вважає Есвелт. Серед його пропозицій: виключити з навчальних наборів дуже невелику кількість статей в Інтернеті, які описують рецепти створення та вдосконалення патогенів. Видалення цих статей, які, за оцінками команди Есвельта, складають менше ніж 1% бази даних рефератів PubMed, "було б достатньо, щоб усунути майже весь ризик". Автори визнають, що це буде коштувати певних витрат – механізми ШІ не зможуть використовувати ці статті для позитивного розвитку біології, але користь від запобігання зловживанню буде "практичною і негайною".
Інші запобіжні заходи можуть включати вимогу до всіх компаній, що займаються синтезом ДНК, і майбутніх настільних принтерів ДНК перевіряти генетичний матеріал на наявність відомих патогенів і токсинів, а також вимогу до контрактних дослідницьких організацій (CRO) перевіряти безпеку будь-якого генетичного матеріалу, який їм доручають зібрати.