Как нейросети помогают мошенникам завладеть деньгами казахстанцев

Онлайн-мошенники продолжают придумывать все более изощренные способы для обмана людей. Теперь они научились имитировать голоса знакомых и родных людей, которым звонят. Для этого они используют генеративный искусственный интеллект или так называемый дипфейк, передает Press.kz.

Как нейросети помогают мошенникам завладеть деньгами казахстанцев
Фото:

Такой метод создания поддельного медиа- и аудиоконтента с помощью алгоритмов нейросетей появился относительно давно — еще в 2016 году, но особую популярность и распространение получил только сейчас.

К примеру, недавно в Казнете появились видеоролики с дипфейком экс-президента Нурсултана Назарбаева, где тот якобы выступает с посланием народу Казахстана на английском языке. Нейросети обработали видео настолько качественно, что сохранили привычную для Назарбаева мимику, голос и движение губ.

 

Посмотреть эту публикацию в Instagram

 

Публикация от ShalMustBGone (@shalmustbgone)

Помимо развлекательных видео, в геометрической прогрессии начало разрастаться количество мошенников, которые звонят людям и голосами их знакомых и родственников выманивают деньги. Как отметила казахстанский блогер под ником Нейрогера, раньше программы по подделке голосов стоили дорого и были недоступны для рядовых пользователей. Но с годами все изменилось, и теперь каждый желающий может «позаимствовать» из соцсетей голос любого человека и обмануть его знакомого.

При этом в массовом доступе нет инструментов, которые способны определять фальшивый голос в реальном времени и вовремя уличить недоброжелателя.

Об участившихся случаях подобного мошенничества также предупреждали в Министерстве внутренних дел РК. Мошенники в Казахстане уже научились использовать подменные абонентские номера, закрепленные за банками и правоохранительными органами.

 

Посмотреть эту публикацию в Instagram

 

Публикация от Нейрогера (@neuro.gera)

К слову, в соседней России актеры дубляжа и участники Союза дикторов выпустили петицию о защите голосов от мошенничества и синтеза. Все они потребовали внести в российское законодательства ряд изменений, чтобы защитить их от нелегального копирования голосов. Причиной тому стала ситуация, произошедшая с актрисой дубляжа Аленой Андроновой. Она обнаружила, что ее голос открыто используется для синтеза на сайте банка «Тинькофф» и продается на популярных площадках без ее согласия. Андронова потребовала взыскать с компании 10,6 миллиона рублей морального вреда.