Россиян предупредили об ухищрениях кибермошенников с ИИ
Мошенники научились применять в своих схемах нейросети и дипфейки - доказательства того, чего не было. Это работает как с изображениями, так и с текстом. Нередко злоумышленники с помощью нейросетей создают и видео, рассказал ведущий исследователь данных в «Лаборатории Касперского» Владислав Тушканов, чьи слова приводит «Прайм».
«Было много случаев, когда мошенники создавали дипфейки, чтобы писать посты в социальных сетях со ссылкой на мошенническую страницу, один из громких примеров — это использование образа Илона Маска», — сказал он.
Кнопка со ссылкойПо словам эксперта, мошенники постоянно совершенствуют свои схемы. При этом называть дипфейки плохой технологией было бы неправильно, так как они используются в обучающих видео, позволяют делать их качественными, синхронизировать губы с речью при переводе на разные языки при переозвучке.
Кроме того, шумиха вокруг нейросетей также на руку злоумышленникам. К примеру, ChatGPT доступен под веб-интерфейс, но получить доступ можно не из любой страны. В результате, аферисты начали создавать ресурсы, где предлагали скачать клиент нейросети, однако на самом деле пользователь скачивал себе на устройство вирус.
По мнению Тушканова законодательный запрет искусственного интеллекта, как это сделали, к примеру, в Италии, не выход. Нужно не регулировать саму технологию, а правильно ее применять, считает эксперт.
Продуктовый калькулятор