Подходы России и Казахстана к регулированию искусственного интеллекта

ВедомостиHi-Tech

ИИ по соседству

В России может появиться свой закон о регулировании искусственного интеллекта, а в соседнем Казахстане аналогичный закон уже принят. В то время как РФ делает ставку на реестр «доверенных» систем и разделение ролей участников, Казахстан ориентируется на создание национальной платформы для обмена данными

Анна Устинова
четверг | 9 апреля 2026

Istock

Россия и Казахстан практически синхронно приступили к формированию современного правового пространства для искусственного интеллекта (ИИ). Но если в РФ подходы к регулированию технологии только проходят общественные обсуждения, то Казахстан уже ввел новые нормы в оборот. Государства настроены внедрять риск-ориентированный подход. Это означает, что чем выше потенциальное влияние ИИ на жизнь человека, тем строже требования к системе. Также обе страны делают ставку на обязательную маркировку синтетического контента, что позволит отличать творения нейросетей от произведений человека.

Суверенный «мозг»

18 марта 2026 г. Минцифры выложило для общественного обсуждения проект федерального закона о регулировании ИИ. Дискуссия по документу продлится до середины апреля 2026 г. Предполагается, что новелла должна вступить в силу 1 сентября 2027 г. и установить четкие правила для разработчиков, бизнеса и государства. Это позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов.

Российский законопроект вводит понятия суверенной и доверенной моделей ИИ. Суверенный ИИ – это концепция, при которой полный цикл разработки и обучения модели осуществляется на территории России с участием только российских граждан и юридических лиц. Такой подход направлен на обеспечение технологического суверенитета страны, минимизацию зависимости от зарубежных технологий и защиту критически важных данных. Доверенный ИИ предполагает создание специального реестра, который будет вести Минцифры. Перед тем как система ИИ будет допущена к использованию, особенно в значимых сферах, таких как госсектор, финансы или социальная сфера, она должна пройти проверку и быть включена в реестр как «доверенная». Это означает, что модель соответствует установленным государством требованиям по безопасности, отсутствию дискриминационных алгоритмов и защите от противоправного использования. Таким образом, эти два понятия работают в связке: суверенность обеспечивает стратегическую независимость, а доверенность – прозрачность для граждан и бизнеса.

Согласно разработанному проекту закона, созданные с помощью ИИ аудиовизуальные материалы должны содержать специальную маркировку – предупреждение. Крупные соцсети обязаны проверять ее наличие, а при отсутствии самостоятельно маркировать или удалять контент.

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении