$ 537.76  627.62  6.7

«Звонил сын, а оказался ИИ»: казахстанцев атакуют дипфейки

Жанна Амирова
Эксперт, редактор Finratings.kz
«Звонил сын, а оказался ИИ»: казахстанцев атакуют дипфейки
Фото: depositphotos.com

B Kaзахстане выявили новую схему мошенничества: злоумышленники звонят по видео с помощью дипфейков, подделывая голоса и лица близких. Эксперты советуют не переводить деньги сразу и всегда перезванивать настоящему человеку.

Представьте: вам звонит родственник или старый друг, вы видите его лицо на экране, он говорит знакомым голосом и просит занять денег. Мозг подсказывает – нужно помочь. Но на самом деле это может быть вовсе не он, а искусственный интеллект, передает Finratings.kz 

О новой уловке предупредил Telegram-канал aqparat saqsysy , который отслеживает мошенников.

«Злоумышленники используют технологии дипфейков, чтобы оживлять фотографии и создавать видео с «клонами» ваших близких. В кадре человек выглядит настоящим, но за этим стоит программа и группа аферистов», – предупреждают авторы канала .

Что нужно запомнить:

  • Никогда не переводите деньги только потому, что «увидели» или «услышали» близкого в видео.

  • Обязательно перезвоните настоящему человеку на знакомый номер и уточните, правда ли он обращался за помощью .

  • Особенно важно предупредить пожилых родственников – именно они чаще всего становятся жертвами таких схем.

Эксперты подчеркивают: мошенники все активнее осваивают новые технологии, поэтому критическое мышление и проверка информации – лучшая защита.

Читайте также: 

Ваша реакция

👍 0
😆 0
👎 0
🤯 0
😢 0
😡 0

Новости партнеров

×
$ 537.76  627.62  6.7