Как в России и мире пытаются регулировать ИИ

РБКHi-Tech

Между выгодой и риском

Как в России и мире пытаются регулировать ИИ

Автор: Марат Селезнев

В 2023 году США, ЕС и Китай сделали первые важные шаги в сторону регулирования искусственного интеллекта. Государства пытаются найти баланс между выгодой, которую может принести технология, и заложенными в ней рисками. Рассказываем о регулировании нейросетей в России и других странах мира, о том, почему ИИ-разработчики могут быть против технологической гонки, и о перспективах международного сотрудничества в этой области.

Почему ИИ нужно регулировать

Бурное развитие инструментов искусственного интеллекта часто связывают с многочисленными рисками: от кажущихся фантастическими, вроде восстания машин и уничтожения человечества, до вполне приземленных, касающихся прикладных аспектов внедрения технологии.

Ко второй категории рисков можно отнести большой пласт этических проблем. Например, «проблему вагонетки»: кого искусственный разум, управляющий беспилотным автомобилем, оставит в живых в экстренной ситуации — пассажиров или пешеходов?

Другая проблема — дискриминация со стороны ИИ. Алгоритмы могут наследовать предвзятость обучающих их людей. Нередко при распознавании изображений нейросеть становится расистом и сексистом, определяя женщин в категорию «домохозяйка», а представителей этнических меньшинств — в категорию «преступник».

Наконец, есть много вопросов к безопасности хранения персональных данных. Нейросети, генерирующие картинки, обучают на огромных массивах исходных изображений с описаниями. Совместное исследование Принстона, Беркли, Швейцарской высшей технической школы, Google и DeepMind показало, что утечки данных из таких нейросетей вполне возможны, поскольку иногда они выдают оригинальные изображения, например фото людей, почти без изменений.

«Главные риски — злоупотребление данными людей при создании и использовании ИИ, изменение рынка труда при внедрении ИИ во многие профессии и «галлюцинирование» алгоритмов, при котором ИИ придумывает несуществующие тексты, факты и документы, на которые ссылается, — говорит директор АНО «Инфокультура» Иван Бегтин. — Также важны риски военного применения ИИ и использования его для создания современных цифровых диктатур, со слежкой за гражданами с помощью ИИ-инструментов».

Где и как собираются регулировать ИИ

Правительства разных стран по-разному оценивают риски, которые несет ИИ. Исходя из собственного видения они и пытаются создать системы регулирования.

США

В конце октября 2023 года президент США Джо Байден подписал указ о мерах безопасности, связанных с развитием ИИ. Объемный документ создает базу под формирование новых правительственных учреждений, которые будут специально заниматься вопросами ИИ, и новых федеральных стандартов в области искусственного интеллекта. Кроме того, указ обязывает разработчиков предоставлять правительству результаты тестирования крупных моделей ИИ, прежде чем публиковать их.

Среди ключевых рисков, которые беспокоят власти США, — крупные генеративные модели, содержащие десятки миллиардов параметров. Вполне вероятно, что новые правила могут быть применены к следующей версии GPT от OpenAI. Кроме того, правительство считает, что продвинутые модели ИИ, способные создавать дипфейки, усугубляют проблему дезинформации. Также в США серьезно относятся к дискриминации со стороны ИИ и к проблемам с защитой конфиденциальной информации. Наконец, ИИ рассматривается как угроза национальной безопасности. В частности, алгоритмы могут быть использованы для ускорения разработки новых видов химического оружия.

Эксперты, опрошенные Scientific American, называют указ Байдена «несколькими первыми шагами в разных направлениях». По их мнению, пока это не полноценное регулирование, а скорее попытка властей понять, что происходит в сфере ИИ. В правительстве слишком мало людей, которые имеют научные степени в области ИИ, поэтому может возникнуть сильный разрыв между ожиданиями политиков и техническим осуществлением регулирования, указывают скептики. Тем не менее, указ важен, поскольку заполняет вакуум, подчеркивают эксперты.

ЕС

Летом 2023 года Европарламент проголосовал за принятие закона об искусственном интеллекте (Artificial intelligence act). Его главные цели — регулирование развития систем ИИ и защита людей от них. Ожидается, что он вступит в силу не ранее 2025 года.

Закон разделяет системы ИИ на группы в зависимости от риска, который они несут европейским гражданам и потребителям. Так, к группе неприемлемого риска относятся:

  • системы, созданные для воздействия на подсознание людей;
  • системы социального рейтинга, разделяющие людей по их поведению, социально-экономическому положению и другим личным характеристикам;
  • системы распознавания людей в реальном времени.

В Европе все это планируют запретить. Единственное исключение — использование систем распознавания правоохранителями после разрешения суда.

В группу с высоким риском попадает ИИ, используемый для управления критически важной инфраструктурой, для охраны границ, применяемый в образовательных учреждениях, правоохранительных органах и в работе с персоналом. Эти решения нужно будет регистрировать в специальной базе ЕС, а власти будут оценивать их как до внедрения, так и в процессе эксплуатации.

По оценке АНО «Цифровая экономика», органы ЕС пытаются создать законодательство, регламентирующее этичные принципы разработки и внедрения ИИ. В Евросоюзе искусственный интеллект должен пользоваться доверием граждан и отвечать принципам прозрачности.

КНР

В августе 2023 года правительство Китая опубликовало 24 правила для регулирования искусственного интеллекта. Например, ИИ должен соответствовать социалистическим ценностям. Кроме того, алгоритмы нельзя использовать для подрыва государственной власти и свержения Коммунистической партии, они не должны наносить ущерб имиджу Китая и способствовать сепаратизму.

Новые правила затрагивают и генеративные модели. Фото и видео, которые создаются с их помощью, необходимо помечать, чтобы не вводить в заблуждение людей. При этом создатели моделей должны будут проверить их безопасность до вывода на рынок. Также китайский бизнес должен создать четкие механизмы рассмотрения жалоб от пользователей и клиентов.

Регулировать ИИ в Китае будут сразу семь ведомств, в частности, Государственная канцелярия интернет-информации (Cyberspace Administration of China, CAC), Министерство образования, Министерство науки и технологий и Национальная комиссия по развитию и реформам (National Development and Reform Commission).

Примечательно, что финальную редакцию правил смягчили. Изначально они предполагали штрафы размером до 100 тыс. юаней (около $14 тыс.) для нарушителей. Впоследствии от этого решили отказаться, чтобы не наносить серьезный финансовый ущерб ИИ-стартапам.

РФ

В России на данный момент нет единого документа, который бы полноценно регулировал сферу ИИ. Но есть несколько отдельных норм и рекомендаций.

Закон №408-ФЗ о регулировании рекомендательных технологий, вступивший в силу 1 октября 2023 года, обязывает владельцев сайтов и приложений раскрывать, какие данные используются для работы рекомендательных систем, откуда их взяли, а также уведомлять пользователей о работе таких систем. Роскомнадзор может заблокировать ресурс до устранения нарушений.

Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года декларирует приоритет благополучия и безопасности человека, защиту его прав и свобод, подконтрольность ИИ человеку, описывает цели и задачи регулирования ИИ, а также процедуру формирования экспериментальных правовых режимов, так называемых регуляторных песочниц.

До 2025 года в Москве действует регуляторная песочница для ИИ. Ею, в частности, пользуется «Яндекс» для тестирования беспилотных автомобилей.

Наконец, есть Кодекс этики в сфере ИИ. Он содержит призывы к ответственности при создании и использовании искусственного интеллекта. Главным приоритетом развития ИИ называется защита интересов и прав людей и отдельного человека. Кодекс подписали 247 компаний и организаций, среди которых «Сбер», «Яндекс», VK, МТС, «Ростелеком», «Росатом» и др. Кодекс носит рекомендательный характер.

Директор по аналитике АНО «Цифровая экономика» Карен Казарян отмечает, что не всегда попытки ввести избыточное регулирование, как, скажем в ЕС, являются показателем прогресса, потому что зачастую это тормозит собственные цифровые индустрии. «В России, на мой взгляд, прекрасный, осторожный подход, стимулирование саморегулирования и экспериментальных правовых режимов для внедрения ИИ в различных отраслях», — уверен эксперт.

Иван Бегтин из АНО «Инфокультура», наоборот, считает вопрос регулирования ИИ в России недостаточно проработанным: «Европейский союз, США и развитые страны — члены G7 и ОЭСР  — сильнее всего продвинулись в деле регулирования ИИ. Регулирование несколько отличается, но во всех случаях в его основе лежит безопасность использования—в значении safety, а не security. В России регулирование не только недостаточно, но и в целом далеко от ожидания граждан, обеспокоенных применением ИИ, в первую очередь крупными корпорациями».

Ограничение прогресса: за и против

Представители бизнеса и научного сообщества по-разному смотрят на проблему регулирования ИИ.

В марте 2023 года больше тысячи предпринимателей, инженеров и исследователей подписали открытое письмо с требованием срочно приостановить обучение ИИ-систем, более производительных, чем GPT-4. Требование поддержали Илон Маск (гендиректор SpaceX), Стив Возняк (соучредитель Apple Computer), сооснователи Skype, Pinterest и Ripple, а также разработчики ИИ-решений Stability AI, Scale AI, Character.ai и профессора многочисленных университетов. В письме сказано, что продвинутые модели с искусственным интеллектом, сопоставимым с человеческим, могут представлять серьезную угрозу. При этом подписанты не призывают полностью затормозить развитие технологии, а лишь на время остановиться и выйти из опасной гонки за более мощными моделями.

Несколько месяцев спустя Центр безопасности ИИ (Center for AI Safety) выпустил заявление с приглашением к дискуссии. «Риск вымирания из-за ИИ должен рассматриваться так же, как и другие масштабные риски, например, пандемии или ядерная война», — гласит документ. Под этим заявлением подписались представители Google, Microsoft, OpenAI, Stability AI, а также исследователи в области ИИ.

Впрочем, бизнес не всегда готов принимать во внимание риски, связанные с технологией. Представители европейского делового сообщества — Siemens, Airbus, Renault, Heineken, Henkel, Danone, Ubisoft и др. — выступили против слишком жесткого, по их мнению, регулирования ИИ в Евросоюзе. Главы и основатели компаний полагают, что регулирование подорвет конкурентоспособность Европы, а инновационные компании просто убегут в страны с более благоприятным правовым режимом.

Иван Бегтин соглашается: регулирование может сильно сказаться на прогрессе в области ИИ. «Но многие исследования человечества были приостановлены по разным причинам. Самый понятный пример — эксперименты на людях. Приостановил ли запрет экспериментов на людях прогресс? Хотим ли мы прогресса в этой области? Аналогично и в случае с ИИ. Не все измеряется прогрессом», — комментирует эксперт.

Возможен ли международный регулятор ИИ

Все страны, которые пытаются заниматься регулированием ИИ, призывают к тесному международному сотрудничеству ради ответственного развития технологии. Во избежание катастрофических последствий Китай также хочет добиться международного консенсуса и в отношении военного применения ИИ.

Развитие искусственного интеллекта находит отражение и в деятельности крупных международных организаций. Например, ООН запустила инициативу «ИИ для всеобщего блага» (AI for Good). Она направлена на использование ИИ для достижения целей устойчивого развития. ОЭСР приняла руководящие принципы управления системами ИИ. Основная цель принципов — стремление к доверенному ИИ, который является справедливым, прозрачным, объяснимым, надежным, безопасным и подотчетным. НАТО разработало собственную стратегию развития ИИ, призванную создать основу для ответственной разработки и использования ИИ в целях обороны и безопасности союзников.

Тем не менее, эксперты, опрошенные РБК, сомневаются, что можно создать международную организацию, которая бы занималась регулированием и надзором в сфере ИИ. Унифицированный подход к регулированию искусственного интеллекта — это утопия, считает Карен Казарян. «Технологическое регулирование эффективно, только когда оно принимается с учетом мнения всех заинтересованных сторон», — говорит он.

Различные организации будут создаваться в первую очередь для стандартизации, полагает Иван Бегтин. Но в мире и сейчас нет наднациональных образований, из которых суверенные государства не могут выйти или которые не могут проигнорировать, заключает он.

Фото: Kevin Frayer / Getty Images, Kevin Frayer / Getty Images, Morris MacMatzen / Getty Images

Хочешь стать одним из более 100 000 пользователей, кто регулярно использует kiozk для получения новых знаний?
Не упусти главного с нашим telegram-каналом: https://kiozk.ru/s/voyrl

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Рекомендуемые статьи

Тату-мастерица Марина Крассовка — о свежих трендах среди мужчин, хейте из-за татуировок на женском теле и парных рисунках Тату-мастерица Марина Крассовка — о свежих трендах среди мужчин, хейте из-за татуировок на женском теле и парных рисунках

Восемь вопросов, много интересной информации... и смелая фотосессия

Playboy
Военно-политическая обстановка в Пакистане Военно-политическая обстановка в Пакистане

Что поставило под угрозу достижения Пакистана в борьбе с терроризмом

Обозрение армии и флота
Александр Крайнов: «Нейросеть не заменит людей в общении, размышлении и умении договариваться» Александр Крайнов: «Нейросеть не заменит людей в общении, размышлении и умении договариваться»

Как нейросети повлияют на профессии и когда они станут привычным инструментом

РБК
Интересный факт! Ученые рассказали, почему у вас звенит в ушах Интересный факт! Ученые рассказали, почему у вас звенит в ушах

"Фантомный шум" в ушах генерируется гиперактивными нервами

ТехИнсайдер
Человек исправленный и дополненный Человек исправленный и дополненный

Что лежит в основе генетических чудес и как сделать их доступными для всех?

Robb Report
Никита Мещерский: Инженеры Tesla – гении, воплощающие в жизнь безумные идеи Маска Никита Мещерский: Инженеры Tesla – гении, воплощающие в жизнь безумные идеи Маска

В Cybertruck есть гораздо больше, чем угловатый дизайн и невыполненные обещания

4x4 Club
Бесконечно биться головой в закрытую дверь: как работают женщины-адвокаты в России Бесконечно биться головой в закрытую дверь: как работают женщины-адвокаты в России

Как не опускать руки, зная, что в России 99% приговоров — обвинительные

Forbes
Дайте лыжню! Дайте лыжню!

История российского биатлона

Men Today
Дарья Донцова: «Чудеса случаются каждый день» Дарья Донцова: «Чудеса случаются каждый день»

Интервью с известной российской писательницей детективов

Лиза
Адаптивный интеллект: как нас спасает умение переучиваться Адаптивный интеллект: как нас спасает умение переучиваться

Зачем и как адаптироваться к постоянным изменениям

Psychologies
Мусор оптом: проблема стихийных свалок на Южном Урале Мусор оптом: проблема стихийных свалок на Южном Урале

Как устранить очаги захламления земель?

ФедералПресс
Упразднение города Н. Упразднение города Н.

Красный командир Яков Тряпицын воплотил фантасмагорию великого сатирика в жизнь

Дилетант
Верю в Веру! Воспоминания о Вере Васильевой Верю в Веру! Воспоминания о Вере Васильевой

Секретом здоровья и энергичности Веры Васильевой было отсутствие злости

Коллекция. Караван историй
Попкорн, маринованные огурцы и хлопок: чем украшают новогоднюю елку в разных странах мира. Что только не вешают! Попкорн, маринованные огурцы и хлопок: чем украшают новогоднюю елку в разных странах мира. Что только не вешают!

В каждой стране мира за новогодним декором скрывается своя история

ТехИнсайдер
Полное собрание в одном доме Полное собрание в одном доме

Как Андрей Тарковский выяснял отношения с домом — и выяснил

Weekend
Кто починит ДНК — перевернет мир Кто починит ДНК — перевернет мир

Генетики уже несколько лет умеют редактировать поломки в ДНК

Наука
Хождение по мухам Хождение по мухам

Как испортился квартирный вопрос и что с этим делать

Weekend
Стеклянный потолок: какие вызовы стоят перед женщинами в руководстве и бизнесе Стеклянный потолок: какие вызовы стоят перед женщинами в руководстве и бизнесе

С какими трудностями сегодня сталкиваются предпринимательницы и руководительницы

Inc.
Как вещи влияют на вашу жизнь: 3 вопроса, чтобы сделать быт источником счастья Как вещи влияют на вашу жизнь: 3 вопроса, чтобы сделать быт источником счастья

Мы очень хотим жить по собственному сценарию. Но не у всех это получается

Psychologies
Привидения Дома Кранкенгагена Привидения Дома Кранкенгагена

Дом Кранкенгагена известен в Петербурге всем, чья страсть — привидения

СНОБ
Одиночество назвали независимым фактором риска смерти от всех причин Одиночество назвали независимым фактором риска смерти от всех причин

Связаны ли как-то одиночество и смерть? Отвечают ученые

N+1
Антидворянец: «Вилла Родэ» Антидворянец: «Вилла Родэ»

Предлагаем вниманию читателя самые свежие слухи и сплетни столетней давности

Правила жизни
Лидеры и мнения Лидеры и мнения

Как за 25 лет изменились телевидение и люди, которые его создают?

Правила жизни
Московский бит Московский бит

Если вы не слышали о System 108, то наверняка слышали грохот их вечеринок

СНОБ
Брожение умов в поисках силы всемирного тяготения, или Как рождался жанр «Анти-Ньютон» Брожение умов в поисках силы всемирного тяготения, или Как рождался жанр «Анти-Ньютон»

Глубокие научные концепции как триггер психологических эпидемий в обществе

Знание – сила
Полезное устройство для кухни и не только: 6 необычных методов использования сита в быту Полезное устройство для кухни и не только: 6 необычных методов использования сита в быту

Скорее записывайте или запоминайте эти лучшие лайфхаки с ситом!

ТехИнсайдер
5 самых популярных запросов, с которыми женщины идут к психологам 5 самых популярных запросов, с которыми женщины идут к психологам

Проблемы, за решением которых женщины обращаются к специалистам чаще всего

Psychologies
«Возвращение в кафе “Полустанок”». Отрывок из романа Фэнни Флэгг «Возвращение в кафе “Полустанок”». Отрывок из романа Фэнни Флэгг

Глава из «Возвращения в кафе “Полустанок”» про обаяние американской провинции

СНОБ
«Сейчас нам предстоит битва»: зачем японские женщины становились самураями «Сейчас нам предстоит битва»: зачем японские женщины становились самураями

Японист Ольга Лебедева рассказывает о трех самых знаменитых воительницах Японии

Forbes
Не «Домострой», а детские сады: какой должна быть поддержка материнства Не «Домострой», а детские сады: какой должна быть поддержка материнства

Противопоставление материнства и работы не решат демографическую проблему

Forbes
Открыть в приложении