Леонид Жуков — об ответственности людей и машин за принятие критических решений

РБКHi-Tech

На ошибках учатся

Леонид Жуков — об ответственности людей и машин за принятие критических решений.

Фото: из личного архива

Мы ежедневно сталкиваемся с искусственным интеллектом, но редко задумываемся, какие нормы этики заложены в его алгоритмы, какие решения машины могут принимать самостоятельно, а для чего нужно слово человека. Глава Лаборатории по искусственному интеллекту «Сбера» Леонид Жуков объяснил, почему люди в ближайшем будущем не смогут полностью довериться ИИ.

Что такое хорошо...

Существует этика разработчиков, то есть тех, кто создает софт, этика применения алгоритмов и этика пользователей. Если говорить про разработчиков, то их задача — предотвратить закладывание в алгоритмы процессов, которые могут навредить человеку. С точки зрения алгоритмов самый главный вопрос в том, чтобы они были справедливы в принятии каких-либо решений и честны с пользователем. Пользователь, в свою очередь, должен использовать ИИ только по прямому назначению.

Почему вопрос этики встает, когда речь заходит про искусственный интеллект, и не так важен, к примеру, в разговоре про обычный софт? ИИ, в отличие от традиционного программного продукта, учится на примерах, которые мы ему даем. Он обобщает поступившую информацию и применяет полученные знания к ситуации, которая раньше не встречалась. В этом заключается сила алгоритмов: если бы мы могли перечислить все возможные встречающиеся ситуации, тогда искусственный интеллект был бы бесполезен. Например, без искусственного интеллекта сложно учить машину ездить, потому что невозможно спрогнозировать каждую ситуацию, которая будет встречаться на дороге. Алгоритмы в этом случае способны принять решение самостоятельно на основе анализа и обобщения примеров в его памяти.

Но ИИ может и ошибиться. В алгоритмах, как в любом медицинском тесте, есть показатели точности и есть ошибки, которые невозможно избежать в силу их предсказательной или обобщающей способности. Есть также ошибки, которые возникают при обучении ИИ, потому что определенные сценарии не встречались в обучающих примерах. Например, в компании N за всю историю не было женщин, занимавших высокие посты. Алгоритм, основываясь на этих данных, никогда не наймет женщин, потому что будет считать, что они не способны достичь высокого положения в компании.

Это этично? Нет. Поэтому с точки зрения разработчиков очень важно минимизировать возможность таких ошибок и научить алгоритм собирать непредвзятые данные. С точки зрения пользователей алгоритмов, как уже говорилось выше, очень важно не применять ИИ в ситуациях, для которых он не предназначен. Например, если алгоритм, натренированный отличать кошек от собак, запустить в зоопарке, он будет либо не способен дать ответ, либо, что еще хуже, пытаться классифицировать всех зверей лишь на кошек или собак.

…и что такое плохо

На сегодняшний день основное средство контроля за этичностью алгоритма — это отсутствие у него возможности принимать критически важные решения самостоятельно. Например, ставить диагнозы. На языке разработчиков это называется human in the loop: человек обязательно участвует в принятии решений, а алгоритм выступает как советчик.

Уровень алгоритмов пока не настолько высок, чтобы мы им доверяли принятие жизненно важных решений, но некоторые вещи мы все же позволяем делать ИИ самостоятельно. Например, повсеместно используемые роботы-пылесосы. Они управляются искусственным интеллектом, но могут ошибиться и заехать не в ту комнату или наехать на препятствие. Однако это не грубая ошибка, и она не приводит к критическим последствиям. То есть пылесос не может сделать ничего такого, что могло бы навредить человеку. Это к вопросу об этике — в алгоритмы работы робота заложены определенные ограничения, которые он не может переступить.

Существующие алгоритмы ИИ можно разделить на два класса: black-box и white-box. Первый — это некий «черный ящик», при использовании которого даже эксперту, создавшему его, может быть непонятно, почему ИИ выдал ту или иную рекомендацию (например, модели глубинного нейронного обучения, deep learning). Такие алгоритмы можно использовать для сервисов с музыкой или фильмами, но нельзя применять ни в медицине, ни в финансах, ни в какой-либо другой ответственной отрасли.

White-box или transparent (прозрачные алгоритмы), наоборот, используют для важных отраслей, так как там алгоритмы максимально просты и понятны. Важным моментом для обеих категорий является ответственность за ошибку. Пока этот вопрос остается нерешенным с юридической точки зрения. Неясно, кто должен нести ответственность за неправильное решение или ошибку ИИ — пользователь, создатель или владелец алгоритма.

Алгоритмы учатся точнее моделировать ситуации и меньше ошибаться, однако они никогда не станут совершенны и безошибочны. Вопрос о допустимом пороге ошибок, цене за ошибку и экономии от замены человека искусственным интеллектом будет стоять всегда. В ближайшем будущем человек по-прежнему будет принимать критические решения, каким бы умным и этичным ни был ИИ.

Леонид Жуков — директор Лаборатории по искусственному интеллекту «Сбера», доктор наук, профессор Высшей школы экономики, пятикратно удостоенный звания «Лучший преподаватель». Является одним из ведущих экспертов в России и в мире в области анализа больших данных, искусственного интеллекта и машинного обучения.

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Светлана Миронюк: «Одна жизнь = несколько карьер с множеством развилок» Светлана Миронюк: «Одна жизнь = несколько карьер с множеством развилок»

Светлана Миронюк — о работе и её будущем

РБК
Одна вокруг света. Вход воспрещен или как застрять на границе между Малайзией и Тайландом Одна вокруг света. Вход воспрещен или как застрять на границе между Малайзией и Тайландом

94-я серия о кругосветном путешествии Ирины Сидоренко и ее собаки Греты

Forbes
Сообразим на троих Сообразим на троих

Сергей Студенников в одиночку создал гигантскую сеть «Красное & Белое»

Forbes
За спиной отца: чем занимаются дочери первых лиц мира – Путина, Алиева и других За спиной отца: чем занимаются дочери первых лиц мира – Путина, Алиева и других

Чем занимаются наследницы политических лидеров?

Cosmopolitan
Двойная игра Двойная игра

Иван Бегтин — о больших данных и мире без секретов

РБК
«Я таскала Данилу в сумке»: Надежда Бабкина рассказала о воспитании сына «Я таскала Данилу в сумке»: Надежда Бабкина рассказала о воспитании сына

Надежда Бабкина рассказала о непростом воспитании сына Данилы

Cosmopolitan
Максим Федоров: искусственный интеллект в десяти вопросах и ответах Максим Федоров: искусственный интеллект в десяти вопросах и ответах

Профессор Сколтеха — об искусственном интеллекте и реальности сюжетов фантастики

РБК
Дикий и забытый: факты и мифы о невероятном Lamborghini LM002 Дикий и забытый: факты и мифы о невероятном Lamborghini LM002

Самый скандальный и неожиданный итальянский внедорожник Lamborghini LM002

Популярная механика
Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News Боты против уток. Сможет ли искусственный интеллект избавить соцсети от Fake News

Мы считаем, что интернет создан ради нас, но на деле его пользователи — боты

РБК
В австралийских водах впервые заметили глубоководных длинноруких кальмаров В австралийских водах впервые заметили глубоководных длинноруких кальмаров

Ученые отметили присутствие длинноруких кальмаров Magnapinna в водах Австралии

N+1
Белые эмигранты Белые эмигранты

Не все в жизни белых медведей складывается гладко

Вокруг света
Абрау-Дюрсо: путешествие со вкусом игристого Абрау-Дюрсо: путешествие со вкусом игристого

Путешествие в столицу российского шампанского – Абрау-Дюрсо!

Домашний Очаг
Боевой характер Боевой характер

Дмитрий Мазепин 25 лет воюет за влияние, активы и репутацию

Forbes
Легенды и мифы древнего ГАЗа: четыре фары, V-образные моторы, полный привод и другие факты и вымыслы о 24-й “Волге” Легенды и мифы древнего ГАЗа: четыре фары, V-образные моторы, полный привод и другие факты и вымыслы о 24-й “Волге”

История люксовой советской “Волги” с четырьмя фарами

Популярная механика
Охранная грамота: останется ли диплом гарантией успеха и социального статуса Охранная грамота: останется ли диплом гарантией успеха и социального статуса

История высшего образования: от аграрных обществ до наших дней

РБК
8 книг об окружающем мире для взрослых и детей 8 книг об окружающем мире для взрослых и детей

Книги про космос, географию и естественные науки для всей семьи

Популярная механика
Дружба на расстоянии Дружба на расстоянии

Сохранить отношения с лучшими друзьями всегда легко, было бы желание

Здоровье
Цвет настроения Цвет настроения

Универсальный современный интерьер с элементами ар–деко для молодой семьи

SALON-Interior
«Сама виновата». Как оренбургского следователя наказали за неэтичное поведение с жертвой насилия «Сама виновата». Как оренбургского следователя наказали за неэтичное поведение с жертвой насилия

Почему мы так критично реагируем на случаи насилия?

СНОБ
«Один или два середнячка в команде расхолаживают всех»: миллиардер и CEO Netflix Рид Хастингс о том, как создать сверхэффективную команду «Один или два середнячка в команде расхолаживают всех»: миллиардер и CEO Netflix Рид Хастингс о том, как создать сверхэффективную команду

Отрывок из книги про Netflix о том, как собрать коллектив мечты

Forbes
Главная партия Главная партия

Шахматы – новый черный! И все благодаря новому хиту Netflix

Grazia
Будь, как Бонд: разбираем луки агента 007 и запоминаем идеи звездных киностилистов Будь, как Бонд: разбираем луки агента 007 и запоминаем идеи звездных киностилистов

Эксперты нашли сразу 10 идеальных вещей Джеймса Бонда

Playboy
Клеточные Терминаторы Клеточные Терминаторы

Ученые научились создавать «полу-искусственную полужизнь»

Популярная механика
10 самых памятных выступлений «Гражданина поэта» в исполнении Михаила Ефремова 10 самых памятных выступлений «Гражданина поэта» в исполнении Михаила Ефремова

Отрывки из проекта «Гражданин хороший» с участием Михаила Ефремова

Maxim
Станки и люди Станки и люди

Машина на службе у человека или человек в плену у машины? О чем говорит история

РБК
Краткая история кнопки Turbo на древних компьютерах Краткая история кнопки Turbo на древних компьютерах

Даже в компьютерном деле плохо, когда слишком быстро!

Maxim
Давид Ян: «В мире появится движение Robot lives matter» Давид Ян: «В мире появится движение Robot lives matter»

Давид Ян уверен, что нейросети нужен эмоциональный интеллект

РБК
Минусовая степень Минусовая степень

Как ухаживать за кожей лица и тела после похудения?

Лиза
Из нуклеотидных последовательностей сделали генератор истинно случайных чисел Из нуклеотидных последовательностей сделали генератор истинно случайных чисел

Ученые разработали генератор случайных чисел на основе ДНК

N+1
Тест-драйв новой версии Volvo S90 Тест-драйв новой версии Volvo S90

Концерн Volvo сумел преодолеть пропасть между средним и премиальным классами

СНОБ
Открыть в приложении