Что такое дипфейки и насколько они могут быть опасны

PsychologiesHi-Tech

Как играют умершие актеры: что такое дипфейк

В апреле 2022 года на Первом канале вышло продолжение сериала «Диверсант», одну из ролей в котором сыграл актер Владислав Галкин, умерший в 2010 году. Как это возможно? Оказывается, реалистично спародировать любого человека способна технология deepfake. Рассказываем, что это такое и насколько опасны могут быть дипфейки.

Текст: Мария Горшкова

960x540_0xac120003_14342512241656417017.jpeg
Дипфейк Владислава Галкина, фото: Кадр из сериала «Диверсант» 2022 г.

Как работает технология deepfake

Технология deepfake при помощи нейронных сетей анализирует большие массивы данных, чтобы имитировать выражение лица, манеры, голос и интонации человека. Процесс включает в себя передачу отснятого материала двух людей в алгоритм глубокого обучения, чтобы научить его менять лица местами.

При выполнении данной технологии компьютерное программное обеспечение выполняет бесшовное наложение какого-либо человеческого лица на убедительное виртуальное факсимиле. Таким образом создаются аудиовизуальные мистификации, бросающие вызов достоверности информации.

Технологические прорывы в области машинного обучения позволили создавать аудиовизуальные подделки с большой реалистичностью и масштабом. В частности, эти прорывы стали возможными благодаря двум достижениям: появлению больших наборов данных и разработке Генеративных состязательных сетей (GAN) — категории моделей машинного обучения, где нейронные сети конкурируют друг с другом без присмотра.

Опасность дипфейков возросла из-за способности GAN создавать очень реалистичные, поддельные медиапродукты в масштабе, используя большие наборы данных. Обученный GAN может делать сотни фотографий в секунду с различной детализацией, включая выражения мимики и разнообразие ракурсов для одного и того же сгенерированного лица.

Технология сама по себе не является злом. Она может приносить пользу, например, при создании видеоигр и улучшении астрономических изображений, на которых часто встречается шум от фона неба.

Чем нам угрожают дипфейки

Манипулятивные процессы, лежащие в основе дипфейков, все чаще вызывают этические вопросы, касающиеся производства медиаконтента. На данный момент дипфейки не способны полностью обмануть глаз, но, как и у любой технологии глубокого обучения, у данной технологии вполне могут возникнуть большие успехи в ближайшем будущем, когда медиаподделки станут неотличимы от настоящих.

Так, продукты технологии deepfake впервые появились на популярной интернет-платформе reddit.com, когда пользователь под ником «deepfakes» опубликовал порнографические видеоролики с лицами известных голливудских актрис, которые наложили поверх лиц оригинальных звезд фильмов для взрослых. Такие случаи прямо нарушают право человека на частную жизнь и могут повлечь за собой разрушение карьеры и семейных отношений людей, ставших объектами дипфейков.

397x505_0xac120003_1772597921656418597.jpeg
Образец набора данных для обучения ИИ, фото: Источник: Yasrab, R., Jiang, W., & Riaz, A. (2021). Fighting Deepfakes Using Body Language Analysis. Forecasting, 3(2), 303–321

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении