26 августа 2025 21:55:29
Нейросеть может сгенерировать фото и придумать биографию человека
В России за использование искусственного интеллекта в мошеннических целях будет грозить отдельное наказание. Об этом рассказали в аппарате вице-премьера Дмитрия Григоренко. За использование ИИ для кражи чужих персональных данных, вымогательства денег или имущества граждан виновным будет назначаться штраф от 100 до 500 тысяч рублей и лишение свободы на срок до 6 лет. Такое внимание государства именно к аферам с использованием ИИ неслучайно. Специалисты предупреждают, что мошенники поставили применение нейросетевых технологий на поток. Профессиональные разработчики открыто занимаются распространением специализированного ПО, предназначенного для обмана частных лиц и представителей компаний, и таких предложений становится всё больше.
В Главном управлении региональной безопасности Московской области рассказали изданию «Московские ведомости» о том, как мошенники используют в своих схемах искусственный интеллект, включая инструменты по генерации звука, текста и изображений.
Голосовые сообщения
В частности, злоумышленники могут подкрепить свою ложную историю, предназначенную для выманивания денег у жертвы, голосовым сообщением, в котором точно имитируется голос друга или родственника жертвы.
«Пользователи мессенджеров столкнулись со схемой обмана, когда мошенники получают доступ к аккаунту через фейковые голосования, подключение Premium-подписки или выдуманные истории с просьбой скинуть деньги. Чтобы картина выглядела убедительнее, к тексту прикрепляют голосовое сообщение, состоящее из нарезок реальных аудио из аккаунта владельца или созданное с помощью ИИ. Чтобы окончательно усыпить бдительность жертвы мошенники отправляют фото банковской карты реального знакомого или родственника, сгенерированное ИИ. Сообщения дублируют во многие чаты для большего охвата аудитории. Имитация голоса, фото или видео конкретного человека с помощью ИИ называется «дипфейк». Если жертва впервые сталкивается с этой технологией, то легко попадется на удочку. Нейросети буквально клонируют голос — его не отличить от оригинала», — предупредили в ГУРБ Московской области.
Видеозвонки и фальшивые карточки на маркетплейсе
В ведомстве добавили, что аналогичным образом могут быть подделаны фото и видео или даже создан фейковый видеозвонок с родственником или знакомым.
«Фейковые карточки ненастоящих товаров на маркетплейсах — еще один способ выманивания денег. Покупатель оформляет заказ на онлайн-площадке, затем переходят в личное общение через мессенджеры и получает ссылку на оплату через сторонний сервис. После перевода связь с продавцом теряется», — рассказали в пресс-службе ГУРБ Московской области.
Фальшивые люди в соцсетях и на сайтах знакомств
В управлении призвали с осторожностью относиться к знакомствам в мессенджерах или соцсетях. Нейросеть может сгенерировать фото и придумать биографию человека, под видом которого с вами будут общаться мошенники. После того, как общение завязалось, злоумышленники могут попросить перевести деньги и исчезнуть.
Рекомендации
Ранее директор департамента информационной безопасности Промсвязьбанка Дмитрий Миклухо дал несколько рекомендаций о том, как не стать жертвой мошенников, использующих искусственный интеллект. Он призвал не делиться конфиденциальной информацией, паспортными и банковскими данными, а также кодами из SMS ни с незнакомыми людьми, ни с ботами, даже если они маскируются под службу поддержки банка или другой организации. Получив сообщение в соцсети или мессенджере от вроде бы знакомого человека, особенно если оно содержит просьбу под каким-либо предлогом перевести деньги, стоит лично связаться с этим человеком по телефону и уточнить, действительно ли он это написал. Также Дмитрий Миклухо посоветовал не делиться информацией о своей частной жизни с незнакомыми людьми. В будущем это может послужить основой для индивидуализированной мошеннической схемы.