Голос как у родного — деньги уходят мгновенно: нейросети открыли новую эру мошенничества
Мошеннические схемы становятся сложнее, а нейросети — удобным инструментом для злоумышленников. Подделанные голоса и изображения всё чаще используются для давления на людей, которым кажется, что к ним обращаются родственники или представители доверенных структур. Об этом сообщает ТАСС.
Как технологии помогают преступникам
По словам официального представителя МВД РФ Ирины Волк, злоумышленники активно применяют генеративные модели для создания убедительных сообщений.
"В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц", — сказала она.
В группе риска оказываются те, кто получает обращения якобы от родственников, сотрудников финансовых организаций или государственных органов.
Подделанные материалы используются для убеждения людей в необходимости совершить платеж или раскрыть конфиденциальные сведения. Преступники копируют манеру речи и интонации, что делает сообщения практически неотличимыми от подлинных. Такие схемы особенно опасны в условиях, когда цифровое общение заменяет личные контакты.
Ирина Волк отмечает, что мошенники нередко прибегают к созданию синтезированных голосов, чтобы вызвать доверие. Они действуют быстро, рассчитывая, что эмоциональная реакция жертвы помешает ей проверить информацию. Подобные случаи фиксируются в разных регионах и требуют повышенного внимания со стороны пользователей.
Пример использования поддельного голоса
Один из эпизодов, приведённых представителем МВД, показал, что преступники способны перехватывать аккаунты в зарубежных мессенджерах. Получив доступ к странице, неизвестный сгенерировал аудиосообщение с использованием голоса владельца аккаунта. В записи звучала просьба о срочной помощи и переведении 35 000 рублей через систему быстрых платежей.
Адресат сообщения был уверен, что к нему обращается родная сестра, поскольку голос в точности совпадал с её тембром. Он выполнил просьбу, после чего деньги оказались у мошенников. Такая схема показывает, насколько убедительными могут быть синтезированные материалы и как легко жертва реагирует на эмоционально окрашенные сообщения.
Этот случай иллюстрирует уязвимость цифровых коммуникаций перед современными технологиями подделки контента. Чем реалистичнее становятся инструменты генерации, тем выше риск использования их в преступных целях и тем важнее проверять источники любой неожиданной просьбы.
Почему проблема требует внимания
Данные эпизоды говорят о том, что цифровая безопасность уже включает необходимость распознавать не только фальшивые сайты или письма, но и аудиовизуальный контент. С развитием технологий мошенники получают новые способы воздействия, а методы социальной инженерии становятся всё тоньше.
Органы внутренних дел фиксируют рост подобных преступлений, что делает необходимым информирование пользователей о возможных рисках. Даже короткое сообщение с поддельным голосом способно стать причиной серьёзных финансовых потерь, если человек воспринимает его как подлинное обращение близкого человека.
Подписывайтесь на Moneytimes.Ru