Дипфейки: можно ли обезопасить себя от мошенников?

Инк.Hi-Tech

Как мошенники используют дипфейки и почему не стоит выкладывать в интернет свои фотографии

Текст: Индира Жарова, руководитель агентства видеоновостей Ruptly. Фото: GuerrillaBuzz, Unsplash

guerrillabuzz-NwD_UggDGs-unsplash.jpg

В эпоху стремительного развития технологий создания и распространения видеоконтента, который сегодня является одним из основных инструментов передачи информации, на повестке дня часто возникает проблема отличия подлинных видео от дипфейков. Дипфейк (от англ. deep learning — глубинное обучение, fake — подделка) — это метод синтеза контента, вырабатываемый посредством машинного обучения и искусственного интеллекта. Для его создания не требуется много информации, достаточно лишь фотографии, видео или записи голоса человека, далее — дело за нейросетью. Как злоумышленники используют технологию в своих целях и можно ли обезопасить себя от них, разобралась для Inc. руководитель российского агентства видеоновостей Ruptly Индира Жарова.

Количество фейковых видео, порождающих ложные инфоповоды, стремительно растет, они становятся все более правдоподобными и труднодоступными для выявления. Если ранее эта технология использовалась для развлечения публики интригующим контентом о селебрити, то в текущей мировой обстановке она задействуется с целью влияния на политику, совершения манипулятивных действий и дезинформирования общественности.

С их распространением возникает все больше случаев „дискредитации” влиятельных личностей. Если не предавать эту проблему активному освещению в информационных источниках и не продумывать эффективные схемы противодействия, в дальнейшем такие видео и вовсе смогут стать угрозой национальной и международной безопасности.

С чего все началось?

Главным виновником появления подобных видео стал искусственный интеллект и его быстро развивающиеся возможности. В числе первых ИИ-моделей, посредством которых создавались первые дипфейки, стала уже всем известная GAN — генеративно-состязательная нейросеть, разработанная в 2014 году американским айтишником Яном Гудфеллоу и его командой. Производительность этой модели поддерживается двумя конкурирующими нейронными сетями — «генератором» случайных реалистичных изображений и «дискриминатором», который отделяет фейковые материалы от подлинных.

Создание дипфейка включает в себя несколько этапов: сбор данных, обучение модели и итоговую реализацию. Для начала требуется большое количество изображений и/или видео человека, который будет заменен на подделке. Затем генератор и дискриминатор обучаются на этих данных, чтобы лучше воспроизводить лицо или голос человека. После обучения модель способна заменять лицо одного человека лицом другого в видео или аудио с высокой степенью реализма.

Первые сгенерированные с помощью ИИ дипфейки появились в 2017 году. Тогда резонансный кейс с применением усовершенствованной технологии связывали с пользователем, который опубликовал на Reddit несколько интимных роликов с участием фальшивых обнаженных звезд, в числе которых — Скарлетт Йоханссон, Эмма Уотсон и другие. Год спустя в сети появилось поддельное видео с Бараком Обамой, произносящим речь, в которой он назвал занимавшего на тот момент должность президента Дональда Трампа «полным идиотом». Этот ролик, созданный с использованием дипфейк-технологии, показывает, насколько реалистичными могут быть подделки и как их можно использовать для манипуляции общественным мнением. Видео было создано американским актером Джорданом Пилом и медиакомпанией BuzzFeed с целью показать опасность дипфейков.

В 2019 году дипфейк-манипуляции оказался подвержен соучредитель и главный исполнительный директор Meta* [признана экстремистской организацией на территории России] Марк Цукерберг. В фейковом видео он «заявил» о том, как контролирует украденные данные миллионов пользователей.

Сегодня, благодаря автоматизации и доступности инструментов, процесс создания компрометирующего контента стал значительно проще для широкой аудитории. Существует множество приложений, позволяющих синтезировать дипфейки с минимальными техническими знаниями, например, DeepFaceLab, FaceSwap, Reface и многие другие. На Youtube можно легко найти туториалы, в которых доходчиво объясняется, как пользоваться подобными программами. То есть при желании сделать дипфейк может любой пользователь интернета. Но качество и убедительность будет зависеть от того, сколько пользователь будет обучаться работе с ИИ и от количества контента с лицом человека, который он «скормит» нейросети.

Так, дипфейк по простому гайду с Youtube вряд ли будет выглядеть достоверно. Но при должном усердии, изучении более продвинутых функций на форумах и обработке большого количества контента может получиться то, что некоторым пользователям будет довольно сложно отличить от реальности. Такие работы, уже можно сказать профессионалов, естественно, распознать сложнее.

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении