Общество
Мошенники научились использовать нейросети: как защититься
Фото
Московские Ведомости

10 декабря 2023 16:53:48

456

Новые технологии проникают в жизнь граждан всё стремительнее. Однако знать нужно не только о том, как пользоваться этими инструментами, но и о том, как защитить себя, если они оказались в руках злоумышленников

Об этом заявил юрист Роман Крюков, комментируя информацию о том, что мошенники научились использовать нейросети в корыстных целях. 

По словам правозащитника, случаи, когда злоумышленники подменяют голоса во время телефонных разговоров и даже используют технологии видеомонтажа, действительно, не редкость. 

«Технологии есть в открытом доступе: одни используют их в работе, другие в досуге, подменяя голоса артистов, третьи с целью преступного умысла. Действительно, стали поступать жалобы на звонки третьих лиц, которые говорили с потенциальными жертвами голосами их родственников, просили деньги, диктовали счета», — рассказал эксперт «Московским ведомостям».

В целях безопасности Роман Крюков посоветовал не переводить денежные средства при входящем звонке с незнакомого номера или при малейших сомнениях. 

«Даже если ситуация выглядит правдоподобно, не поленитесь задать вопрос, ответ на который можете знать только вы и собеседник или перезвоните тому самому родственнику, который просит в долг. Еще лучше, если внутри семьи или близкого круга общения вы будете иметь свое кодовое слово. А вне такого круга я бы вообще советовал денег в долг не давать», — подытожил юрист. 

Как выяснилось, технически реализовать подобную мошенническую схему несложно. 

«Для того, чтобы получить голос человека и «скормить» его нейросети для дальнейшего использования достаточно 5-10 секунд разговора с ним, например, под маской рекламной акции или даже ошибочного звонка. Далее с помощью определенного программного обеспечения создается фильтр голоса, который используется при звонке от имени родственника», — рассказал в беседе с «Московскими ведомостями» ИТ-эксперт Александр Юдин. 

По словам специалиста, те нейросети, которые сегодня в России используются тысячами пользователей для генерации контента, не подходят для реализации подобных схем. Однако бесплатный доступ к сервисам с ИИ, открывающим новые возможности для пользователей, становится еще одной уловкой мошенников, на которую нередко попадаются даже несовершеннолетние. Об этом рассказывали в Главном управлении региональной безопасности Московской области. 

«Хороший программист, который действительно разбирается в технологиях, на зарубежных сайтах может найти нужные инструменты. Это не хакер международного масштаба, я бы сказал, эксперт выше среднего уровня. Сейчас мы говорим только о тоне голоса, но думаю, нейросеть в будущем сможет даже имитировать манеру общения и поддерживать разговор. Можно ли защитить себя? Можно, прежде всего, повышением грамотности. При этом я думаю, и государство должно ограничивать возможность использования нейросетей в тех или иных сферах на законодательном уровне», — заключил Александр Юдин. 

Пока о запрете или ограничении работы нейросетей в России речи не идет. Искусственный интеллект продолжает работать на благо человечества: повышает раскрываемость преступлений различного характера, следит за порядком на улицах и в общественных местах. К примеру, «умные» камеры, подключенные к системе «Безопасный регион» в Московской области, позволяют эффективнее контролировать сразу несколько сфер: экологию, строительство, транспорт и другие.

Реклама