
Чем правдоподобнее ролик, тем опаснее ложь: новая эра фейков захватила Урал
В последние годы интернет стал не только источником информации и развлечений, но и пространством, где всё чаще появляются умелые подделки. Технологии развиваются настолько быстро, что граница между правдой и вымыслом иногда становится почти незаметной.
Яркий пример — появление в соцсетях видеоролика, в котором якобы выступает глава Свердловской области Денис Паслер и сообщает о дефиците топлива в регионе. Как оказалось, запись была создана с помощью технологии дипфейка и распространялась для дезинформации жителей региона.
Антитеррористическая комиссия Свердловской области уже отреагировала на провокацию и официально предупредила об очередном вбросе.
"Выявлена попытка очередного вброса провокационного видео о нехватке топлива в целях деморализации населения", — сказано в сообщении.
"Для убедительности аферисты используют технологию дипфейка".
Подобные случаи становятся всё более частыми, и потому важно понимать, как работают дипфейки, чем они опасны и как можно защититься от их воздействия.
Что такое дипфейк и почему он так опасен
Термин "deepfake" образован от слов "deep learning" (глубокое обучение) и "fake" (подделка). По сути, это видеоролик или аудиозапись, созданная с помощью нейросетевых алгоритмов, которые заменяют лицо или голос одного человека другим. С точки зрения зрителя запись выглядит максимально правдоподобно.
Проблема в том, что такие материалы способны вводить людей в заблуждение, формировать ложное мнение о событиях и даже влиять на настроение общества. Особенно тревожно, когда речь идёт о фейках с участием государственных деятелей, бизнесменов или экспертов.
Сравнение: дипфейк против традиционного монтажа
Характеристика | Дипфейк | Обычный монтаж |
---|---|---|
Точность передачи лица и голоса | Высокая, зритель почти не отличит | Ограниченная, часто заметны склейки |
Время создания | От нескольких часов до пары дней | Может быть быстрее, но требует ресурсов |
Используемые технологии | Нейросети, машинное обучение | Программы для редактирования видео |
Уровень опасности | Очень высокий из-за достоверности | Средний, заметить подделку легче |
Мифы и правда
-
Миф: дипфейки легко распознать.
-
Правда: современные технологии делают видео крайне правдоподобными, и обычный зритель часто не замечает подвоха.
-
Миф: такие ролики создают только хакеры.
-
Правда: сегодня доступ к программам есть у любого пользователя.
-
Миф: дипфейки применяются только в политике.
-
Правда: они активно используются в кино, рекламе и даже в игровой индустрии.
3 интересных факта
-
Первые дипфейки появились в 2017 году на форумах энтузиастов.
-
В 2020 году в Китае приняли закон, регулирующий использование дипфейков.
-
Некоторые соцсети уже внедрили алгоритмы, которые автоматически блокируют подозрительные видео.
Исторический контекст
Манипуляции с изображениями существовали задолго до появления нейросетей. В XIX веке фотографы уже умели "удалять" лишних людей со снимков. В XX веке монтаж активно применяли в пропаганде. Сегодня всё вышло на новый уровень: достаточно смартфона и доступа к интернету, чтобы создать убедительное видео, способное ввести в заблуждение миллионы.
Подписывайтесь на Moneytimes.Ru