Штучний інтелект може підробляти оголені фото і відео, які шахраї використають для шантажу
Поява технологій штучного інтелекту несе загрозу неконтрольованого виробництва фальшивих відео і фотоконтенту еротичного і порнографічного змісту. Зловмисники можуть використовувати їх для шантажу, шахрайства, приниження жертв. І при цьому контроль над такими ризиками є дуже обмеженим. ТЕКСТИ наводять головне з замітки The Washington Post про діпфейки, створені штучним інтелектом.
Завдяки відносно простим у використанні інструментам ШІ, кожен, хто має доступ до зображень обличчя жертви, може створювати реалістичний відвертий вміст за допомогою створеного ШІ тіла. Випадки домагань і здирництва, ймовірно, зростуть. При чому це стосуватиметься всіх – від знаменитостей до колишніх подруг, або навіть дітей.
- Згідно з аналізом компанії DeepTrace Technologies, станом на 2019 рік, 96 відсотків дипфейків в Інтернеті були порнографічними, і практично всі порнографічні дипфейки зображували жінок. Відтоді кількість дипфейків зросла, а реакція правоохоронних органів і освітян відстає. Лише три штати США мають закони, які стосуються глибокої фейкової порнографії.
- Зловмисникам не потрібне потужне машинне навчання, щоб створювати глибокі фейки: програми для заміни обличчя відкрито доступні в магазинах додатків Apple і Google.
- Моделі ШІ навчаються на мільярдах зображень з інтернету, а тому уже на цьому етапі вони «поглинають» суспільні упередження, сексуалізуючи образи жінок за замовчуванням. Вони зображують жінок із сексуальними позами та виразами обличчя, незалежно від того, чи були відфільтровані оголені та інші відверті зображення. Наприклад, додаток Lensa, який у листопаді посів перше місце в чартах додатків, створює автопортрети, створені штучним інтелектом. Багато жінок сказали, що додаток сексуалізував їхні зображення, надаючи їм більші груди або зображуючи їх без сорочки.
- Перегляд відвертих фото і відео без вашої згоди — незалежно від того, чи є ці зображення справжніми чи підробленими — є формою сексуального насильства. Жертви часто стикаються з осудом і плутаниною з боку своїх роботодавців і громад. Наприклад, одна вчителька з маленького міста змушена була покинути роботу після того, як батьки дізналися про порно, створене ШІ за подобою вчительки без її згоди. При цьому пояснити їм, що це штучна історія, було неможливо
- Моделі машинного навчання також можуть видавати зображення, що зображують жорстоке поводження з дітьми або зґвалтування, і, оскільки під час створення ніхто не постраждав, такий контент не порушуватиме жодних законів. Але доступність цих зображень може посилити виктимізацію в реальному житті.
- Деякі моделі генерування зображень, зокрема Dall-E, мають межі, які ускладнюють створення відвертих зображень. OpenAI мінімізує зображення оголеного тіла в навчальних даних Dall-E, блокує людей від введення певних запитів і сканує вихідні дані, перш ніж показати їх користувачеві. Інша модель, Midjourney, використовує комбінацію заблокованих слів і людської модерації. Stability AI, виробник моделі Stable Diffusion, припинив включати порно в навчальні дані для своїх останніх релізів, значно зменшивши упередженість і сексуальний контент. Але користувачі швидко знайшли обхідні шляхи, завантаживши модифіковані версії загальнодоступного коду для Stable Diffusion або знайшовши сайти, які пропонують подібні можливості.
- Для більшості людей видалення своєї присутності в Інтернеті, щоб уникнути ризику зловживання ШІ, є нереальним. Натомість експерти закликають уникати використання сексуального контенту без згоди та ознайомитися з тим, як він впливає на психічне здоров’я, кар’єру та стосунки жертв. Вони також рекомендують поговорити з дітьми про «цифрову згоду». Люди мають право контролювати, хто бачить зображення їхніх тіл — справжні чи ні.