Facebook просить вибачення за «расистський» штучний інтелект: той позначив чорношкірого як "примата"
Всі ми, зрештою, примати в черевиках – але скандал у тому, як штучний інтелект не зміг упізнати в людині людину.
Штучний інтелект буває расистом і сексистом. Але він вже визначає, кого брати на роботу, як лікувати і чи арештовувати
Після того, як користувачі соцмережі дивилися відео з чорношкірим чоловіком, алгоритм питав, чи хотіли б вони "й надалі дивитися відео про приматів", – передає New York Times.
Facebook заявив, що це була неприпустима помилка штучного інтелекту, й люди вимкнули всю рекомендацію на основі тем після її виявлення.

Скриншот рекомендації.
На відео йшлося про те, як білий чоловік викликав поліцію на чорношкірих.
Як відомо, у 2015 році Google теж мусив просити вибачення, коли його застосунок помилково визначив чорношкірих людей як горил. Згодом чатбот Microsoft під назвою Tay навчився від людей расистських зауважень, і його мусили відключити.