Верю не верю. Как генеративно-состязательные нейросети (GAN) стали инструментом мошенников
Генеративно-состязательные нейросети (GAN) активно используют мошенники в своих манипуляциях для имитации чужой личности. Поэтому если кто-то из членов семьи неожиданно набрал вас по видеосвязи и срочно попросил помочь деньгами, не спешите открывать приложение банка. Перезвоните сами и проверьте: возможно, вы разговаривали с нейросетью-мошенником, которая ловко имитирует чужую личность.
Генеративно-состязательные нейросети (GAN) активно используют мошенники в своих манипуляциях для имитации чужой личности. Поэтому если кто-то из членов семьи неожиданно набрал вас по видеосвязи и срочно попросил помочь деньгами, не спешите открывать приложение банка. Перезвоните сами и проверьте: возможно, вы разговаривали с нейросетью-мошенником, которая ловко имитирует чужую личность
В январе 2020 года управляющему одного из банков в Дубае позвонил директор. Он предупредил, что в почте того ждет запрос на перевод 35 миллионов долларов, подчеркнув, что оплату важного корпоративного приобретения следует одобрить как можно скорее. Что и сделал исполнительный сотрудник. Прежде он не раз общался с директором и сразу узнал его голос в трубке. Но менеджер ошибался: распоряжение отдал вовсе не человек, при этом внушительная сумма стала быстро растворяться в глобальных банковских сетях.
О краже из неназванного арабского банка стало известно только осенью 2021 года, когда в распоряжении журналистов Forbes оказались некоторые документы о расследовании преступления. Этот случай стал вторым зарегистрированным финансовым мошенничеством, совершенным с помощью звукового дипфейка — голоса, ловко подделанного искусственным интеллектом. Такие технологии позволяют имитировать не только речь, но и внешность и даже мимику жертвы, используя чужую личность, словно послушную марионетку.
Эксперты, опрошенные Университетским колледжем Лондона в 2020 году, назвали дипфейки главным и самым актуальным из рисков, связанных с массовым применением ИИ. По уровню опасности, простоте и скорости применения подделка личности обошла даже такие очевидные угрозы, как применение боевых автономных роботов или хакерский перехват управления беспилотным автомобилем. А ведь начиналось все так безобидно — с забавных видеофильтров, позволяющих взглянуть на себя «в старости» или «поменяться» лицами с другим человеком.
Генератор и дискриминатор
Манипуляции с фотоснимками и кинозаписями начались почти одновременно с их появлением на свет. Сперва они производились с помощью хитроумных приемов съемки, затем появились компьютерные спецэффекты. Но до недавнего времени спецэффекты оставались прерогативой больших студий, требуя профессиональных программных пакетов и мощных, дорогих вычислительных систем. Коренные изменения начались в 2014 году, когда на свет появилась новая модель машинного обучения — генеративно-состязательные нейросети (Generative Adversarial Network, GAN).