Подрывная деятельность
Разработчик — художнику: «Я возьму твою картину из интернета и обучу на ней нейросеть. что ты мне сделаешь?» Художник — разработчику: «Я сломаю твою нейросеть, и ты потеряешь миллионы долларов. Для этого мне даже не нужно быть хакером!» Благодаря новому «супероружию» дискуссия об авторском праве перешла в партизанскую войну
Большая языковая модель GPT-2 обучалась на текстах, взятых с 8 миллионов веб-страниц, следует из официальной документации создателя нейросети OpenAI. Размер датасета, на котором тренировались последующие версии ИИ, от GPT-3 до GPT-5, каждый раз увеличивался на порядки, но точные цифры OpenAI давно не раскрывает. Это неудивительно: у большинства текстов есть живые авторы, и многие из них недовольны тем, что технологический гигант без разрешения использует результаты их интеллектуального труда.
Соцсеть Reddit через суд потребовала от OpenAI компенсации за то, что разработчик использовал посты ее пользователей для обучения нейросети. В случае, если иск не будет удовлетворен, Reddit обещает закрыть свою платформу от поисковых роботов, не побоясь 45-процентного падения посещаемости.
Пока большие корпорации судятся, простые авторы вдруг получили от ученых супероружие для защиты своих прав. Благодаря ему художник с помощью одной картинки может нанести AI-корпорации многомиллиардный ущерб, даже не нарушив закон.
Супероружие
Губительный для нейросетей инструмент называется Nightshade. Его разработала группа ученых Чикагского университета под руководством профессора Бена Чжао. Сценарий использования Nightshade такой: нарисовав картину, сделав коллаж или фотографию, автор загружает файл на сайт сервиса. Обратно он получает картинку, внешне не отличающуюся от оригинала. Ее можно смело публиковать в интернете, не боясь (а скорее даже надеясь), что файл попадет в датасет для машинного обучения.
«Съев» некоторое количество картинок, обработанных Nightshade, искусственный интеллект начинает вести себя странно: собак определяет как кошек, а в автомобилях узнает коров. Самое интересное — это количество «отравленных» картинок, с помощью которых можно привести нейросеть в негодность. Оно невероятно мало. Так, ученые протестировали свой алгоритм «отравления» данных на графическом ИИ с открытым кодом Stable Diffusion. 50 поврежденных образцов (из миллиардов!) заставляют нейросеть видеть в собаке многоглазое чудовище, а 100 изображений превращают ее в кота.
Ранее группа Бена Чжао разработала похожий инструмент Glaze, предназначенный для маскировки персонального стиля художников. Нейросеть, получившая картинку от Glaze, принимает кубизм за аниме, а концептуальный коллаж за абстрактную геометрию. Ученые планируют объединить Glaze и Nightshade в один продукт, который позволит авторам изображений защитить свои работы от попадания в датасеты для ИИ.