Общество
ИТ-эксперт Ульянов рассказал, как не стать жертвой дипфейка
Фото
Московские ведомости

Автор: Стас Литвинов

05 мая 2025 13:35:54

436

Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. Некогда сложная технология поддельных видеозаписей теперь стала доступна мошенникам за счет развития искусственного интеллекта. На что обращать внимание, получив неожиданное видео от знаменитости или близкого человека изданию «Московские ведомости» рассказал эксперт по ИТ-безопасности Владимир Ульянов

Современные технологии настолько высоки, что отличить настоящее видео от поддельного может быть крайне сложно.

«Если не заниматься экспертным анализом полученного сообщения, не изучать его пристально, то среднестатистическому человеку практически невозможно отличить дипфейк», — пояснил Владимир Ульянов.

Именно поэтому эксперт рекомендует обращать внимание не на само видео, а на его отправителя и сопровождающее сообщение. В подавляющем большинстве случаев дипфейк используется мошенниками, чтобы жертва поверила в записанное видео и перешла по прилагающейся ссылке.

«С видео обычно присылают сообщение с просьбой перейти по ссылке. Смотрите внимательно, что это за ссылка – она может вести на сайт, похищающий персональные данные. Смотрите на аккаунт отправителя. Иногда дипфейки рассылаются от лица известного человека, используя поддельные страницы в социальных сетях», — пояснил эксперт.

В качестве такого примера Ульянов привел аккаунты знаменитостей, где те размещают видеообращение к аудитории с предложением перейти по ссылке, и, например, проголосовать в каком-то опросе.

«Мошенники стараются извлечь выгоду как можно скорее, поскольку созданные или сворованные аккаунты очень быстро блокируют или возвращают владельцам. Созданные дипфейк должен «отработать» и принести деньги создателям за один – два дня, после чего его уже разоблачат. Смотрите, когда был создан аккаунт, с которого пришло сообщение. При любом подозрении подождите и посмотрите, не заблокируют ли в скором времени эту страницу или отправителя», — отметил ИТ-эксперт.

Напомним, дипфейк (deepfake) — технология синтеза медиа-контента с помощью алгоритмов искусственного интеллекта, чаще всего нейросетей. Главная задача — заменить лицо одного человека на лицо другого в видео или создать полностью фальсифицированную речь, имитирующую голос и интонации. Часто этой технологией пользуются мошенники для введения в заблуждение и хищения средств.

Реклама