На службе силы зла: как хакеры используют ChatGPT
Мошенники уже научились использовать нашумевший чат-бот ChatGPT для выполнения рутинных задач по написанию фишинговых писем и вредоносного кода, несмотря на то что программа от OpenAI имеет этические ограничения на такую деятельность. При этом получают свое распространение и специальные чат-боты для хакеров, например WormGPT. Forbes поговорил со специалистами по информационной безопасности о том, чего нам ждать от использования нейросетей хакерами и создадут ли они переворот в киберсреде
На начальном уровне
Хакеры по всему миру активно интересуются ChatGPT от OpenAI. Более 200 000 доступов к ChatGPT в даркнете обнаружила канадская компания Flare, работающая в сфере безопасности. На тематических хакерских форумах и в группах за полгода ChatGPT упоминается более 27 000 раз, пишет BleepingComputer со ссылкой на данные Flare.
Сам по себе ChatGPT не опасен — человек всегда напишет более точечное письмо, подчеркивает сооснователь проекта StopPhish Юрий Другач. Но когда злоумышленникам потребуется масштабировать атаку на большое количество организаций или пользователей, то нагрузку, связанную с человеческим ресурсом, они могут переложить на ChatGPT, поясняет он.
ChatGPT может писать код на уровне начинающего программиста, поэтому с его помощью можно создавать различные вредоносные программы и сайты без каких-либо знаний в программировании, отмечает ведущий инженер CorpSoft24 Михаил Сергеев. Нельзя сказать, что нейросеть оставит без работы криминальных кодеров и копирайтеров, но свою основную задачу — автоматизацию рутинных процессов и сокращение требуемого на работу времени — она выполняет хорошо, продолжает эксперт центра мониторинга внешних цифровых угроз Solar AURA компании «РТК-Солар» Александр Вураско.
С помощью чат-ботов можно генерировать дипфейки на основе личных фотографий пользователей, чтобы потом шантажировать жертву и требовать выкуп, отмечает руководитель управления киберразведки Bi.Zone Олег Скулкин. Еще одна схема мошенничества, по его словам, — имитация голоса с помощью искусственного интеллекта, например для звонков из «службы безопасности».
«Известны также случаи, когда преступники создают сайты, предлагающие якобы бесплатный доступ к нейросетям и чат-ботам. Чтобы получить его, человек вводит свои личные данные, после чего они становятся доступны мошенникам», — добавляет Олег Скулкин. Злоумышленники активно собирают чувствительные данные, которыми люди делятся с чат-ботами. Именно поэтому важно не размещать в них важную информацию, добавляет он.
Для ленивых хакеров
Злоумышленники уже активно используют, в том числе и в России, языковые модели как приманки в рамках мошеннических схем, говорит ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов. «Недавно наши контент-аналитики обнаружили схему, в которой злоумышленники выманивали деньги через умный чат-бот для поиска интимных фотографий в Telegram, — рассказывает он. — Авторы чат-бота заявляли, что он якобы работает на основе ChatGPT и с его помощью можно искать в некой базе слитые фотографии человека, имея на руках ссылку на его профиль в социальных сетях или номер телефона. На определенном этапе человека просили заплатить 399 рублей за разовый доступ к базе или 990 рублей за безлимитный. Если жертва переводила деньги, то они уходили злоумышленникам, никаких фотографий человек, разумеется, не получал».