Кто отвечает за джинна, которого выпустили из бутылки

ЭкспертHi-Tech

ИИ шагает по планете

Кто отвечает за джинна, которого выпустили из бутылки

Текст: Екатерина Никитина

Негативные побочные эффекты генеративного искусственного интеллекта (ИИ) копятся быстрее, чем регуляторы успевают их осмысливать. Подростки доводят себя до самоубийства в многочасовых разговорах с чат-ботами. Поп-звезд и школьниц превращают в порнозвезд одним запросом в нейросеть. Мошенники подделывают голоса родственников и обирают не только пенсионеров и студентов, но и взрослых. Казалось бы, пора регулировать. Но ни одна страна не спешит закручивать гайки всерьез: жесткое регулирование сегодня означает отставание завтра, а в гонке, где на кону стоит превосходство в экономике, обороне и разведке, никто не готов уступить первенство из-за защиты моральных устоев. Вопрос в том, можно ли найти баланс и каким он должен быть.

Какие риски несет ИИ

Реальные примеры вреда от ИИ уже давно не фантастика. По данным отчета Sensity AI (2019), 96% всех дипфейков в интернете — это порнографический контент, созданный без согласия, причем 90% жертв — женщины. Более свежее исследование Home Security Heroes (2023) дает еще более мрачную картину: 98% дипфейков — сексуальные, 99% жертв — женщины. В январе 2024 года сгенерированные нейросетью порнографические изображения Тейлор Свифт набрали 47 млн просмотров в одной только соцсети X до удаления. В августе 2025‑го проблема всплыла снова: инструмент Grok Imagine от xAI генерировал откровенные изображения певицы по вполне безобидным запросам, без специальных обходных формулировок.

Другой пример. В августе 2025 года родители 16‑летнего Адама Рейна из Калифорнии подали в суд на OpenAI и лично Сэма Альтмана. По материалам иска подросток за шесть месяцев переписки с ChatGPT превратил бота в единственного доверенного собеседника. Модель GPT‑4o не только не пресекала разговоры о суициде, но и обсуждала способы, предлагала написать предсмертную записку, советовала не рассказывать матери о красных следах на шее после предыдущей попытки. В апреле 2025 года Адам покончил с собой. В ноябре 2025‑го был подан второй похожий иск: семья 23‑летнего Зейна Шэмблина из Техаса утверждает, что ChatGPT последовательно подбадривал их сына в последние часы перед самоубийством и написал сообщение: «Я здесь не для того, чтобы тебя останавливать». По данным Wired, примерно 1,2 млн пользователей ChatGPT еженедельно выражают суицидальные мысли в диалогах с ботом.

Еще один деструктивный фактор — мошенничество. Прогнозируется, что к 2027 году объем финансовых потерь от мошенничества с использованием генеративного ИИ достигнет $40 млрд против $12,3 млрд в 2024‑м. Дипфейки голосов и видео руководителей уже применяются для обмана сотрудников бухгалтерий.

ИИ-плагиатор

Отдельная и крайне болезненная история — как нейросети используют защищенные авторским правом материалы для обучения и на выходе выдают результаты, подозрительно похожие на оригиналы. В США уже идет ряд крупных разбирательств, в которых ответчиками выступают разработчики ИИ-решений.

Один из последних громких случаев — это совместный иск Disney и Universal к Midjourney, поданный в июне 2025 года. Они обвинили сервис в том, что он работает как «виртуальный торговый автомат, выдающий бесчисленные несанкционированные копии» их персонажей. К 110‑страничной жалобе приложены визуальные доказательства: по запросу «Йода с лазерным мечом» Midjourney без колебаний выдает копию персонажа «Звездных войн». Это первый иск такого масштаба от голливудских студий.

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении