В Петербурге мошенники используют дипфейки родных для вымогательства денег

В Петербурге мошенники используют дипфейки родных для вымогательства денег

0 0

Нейросети могут воспроизвести мимику, голос и даже движения человека.

Управление по борьбе с киберпреступностью ГУ МВД России по Петербургу и Ленобласти предупредило о новой схеме мошенничества с использованием технологий искусственного интеллекта. Злоумышленники создают реалистичные видео с изображением "родственников", которые просят срочно занять им денег.

По данным правоохранительных органов, современные нейросети позволяют преступникам по одной фотографии воспроизводить мимику, голос и движения конкретного человека. Полученные поддельные видео рассылаются близким и друзьям человека, чей образ был использован. Мошенники рассчитывают на доверие жертв и быстрый перевод средств.

В МВД рекомендовали гражданам проявлять особую бдительность при получении подобных сообщений с просьбами о финансовой помощи. При получении подозрительного видео необходимо обязательно перепроверить информацию — напрямую созвониться с человеком и лично уточнить, действительно ли он обращался за помощью.

Специалисты также советуют не переводить деньги незнакомым лицам под влиянием эмоций и всегда проверять подобные запросы через другие каналы связи. В случае столкновения с подобными схемами мошенничества следует немедленно сообщить в правоохранительные органы.

Ранее Piter.TV сообщал, что россиян предупредили о новой схеме мошенников с оплатой госпошлины МВД.

Фото: Piter.TV

Теги: ,
Категории: , , , ,

Обсуждение ( 0 ) Посмотреть все

Новые комментарии