«Звонил сын, а оказался ИИ»: казахстанцев атакуют дипфейки

B Kaзахстане выявили новую схему мошенничества: злоумышленники звонят по видео с помощью дипфейков, подделывая голоса и лица близких. Эксперты советуют не переводить деньги сразу и всегда перезванивать настоящему человеку.
Представьте: вам звонит родственник или старый друг, вы видите его лицо на экране, он говорит знакомым голосом и просит занять денег. Мозг подсказывает – нужно помочь. Но на самом деле это может быть вовсе не он, а искусственный интеллект, передает Finratings.kz
О новой уловке предупредил Telegram-канал aqparat saqsysy , который отслеживает мошенников.
«Злоумышленники используют технологии дипфейков, чтобы оживлять фотографии и создавать видео с «клонами» ваших близких. В кадре человек выглядит настоящим, но за этим стоит программа и группа аферистов», – предупреждают авторы канала .
Что нужно запомнить:
-
Никогда не переводите деньги только потому, что «увидели» или «услышали» близкого в видео.
-
Обязательно перезвоните настоящему человеку на знакомый номер и уточните, правда ли он обращался за помощью .
-
Особенно важно предупредить пожилых родственников – именно они чаще всего становятся жертвами таких схем.
Эксперты подчеркивают: мошенники все активнее осваивают новые технологии, поэтому критическое мышление и проверка информации – лучшая защита.
Читайте также: