Не только «Сбербанк»: пять самых эпичных ошибок искусственного интеллекта
Наглядные случаи, в которых роботы пытаются заменить человека, но у них пока не получается
Ошибки искусственного интеллекта на миллиарды рублей убытка стали самой громкой технологической новостью недели в России. Точная версия слов президента Сбербанка Германа Грефа остается предметом обсуждения, но стала поводом для того, чтобы вспомнить самые громкие случаи провалов ИИ.
Расизм и дискриминация
Корпорация Amazon, наряду с другими технологическими гигантами США, является одним из центров разработок в области искусственного интеллекта. В 2017 году компания закрыла экспериментальный проект по найму сотрудников на основе ИИ, который вела около трех лет. По словам представителей компании, в результате они ожидали получить некий «Святой Грааль», который мог бы отобрать пятерку лучших кандидатов из сотни резюме. Одной из ключевых проблем стала гендерная дискриминация кандидатов — алгоритм занижал оценки кандидатов-женщин, поскольку был обучен на прошлом десятилетнем опыте отбора кандидатов в Amazon, среди которых преобладали мужчины. Были и другие сложности: алгоритм нередко выдавал практически случайные результаты.
Применение алгоритмов в рекламных инструментах Facebook (соцсеть признана в РФ экстремистской и запрещена) привело к появлению предложений по группировке целевых аудиторий на основе такого признака, как антисемитизм. В 2016 году президенту Microsoft Research Питеру Ли пришлось извиняться за чат-бота Тау, который менее чем за сутки общения с пользователями Twitter научился расистским высказываниям. Проект был приостановлен.
Опасность на дороге
Распространение беспилотных автомобилей выглядит неизбежным будущим, однако еще не решены важные вопросы — например, этический выбор в опасных ситуациях. При этом сами тестовые испытания проходят с трагическими последствиями. Весной 2018 года Uber тестировала беспилотный автомобиль на базе одной из моделей Volvo на улицах города Темп в штате Аризона, США. Машина сбила женщину насмерть. Тестирование автопилота проводилось при сниженной чувствительности к распознанным опасным объектам, чтобы избежать ложных срабатываний. Когда порог чувствительности снижался, система видела опасные объекты там, где их не было.