Как распознать голосовой дипфейк и не потерять деньги.
Специалисты предупреждают: реального человека могут имитировать по телефону за секунды — мошенники получают деньги, передает Finratings.kz
Британская компания NCC Group обнаружила, что современные ИИ-системы уже умеют клонировать голос живого человека в режиме реального времени. О результатах исследования пишет IEEE Spectrum.
Это значит, что звонок от «сына», «коллеги» или «сотрудника банка» может оказаться подменой — и жертва этого не заметит.
«Исследователи протестировали десятки случаев так называемого “голосового дипфейка” и пришли к тревожному выводу: достаточно всего нескольких секунд записи речи, чтобы создать реалистичный голосовой клон. И никакие суперкомпьютеры не нужны – хватит обычного ноутбука с видеокартой уровня RTX A1000», — сообщается в материале.
Технологию называют реал-тайм дипфейк-фишинг: подмена голоса без слышимой задержки, речь идёт с естественной интонацией и тембром.
В экспериментах злоумышленники имитировали разговор с близким человеком. Слушатели не заподозрили подмены даже при появлении личных фраз, сгенерированных ИИ.
Разговоры звучали настолько убедительно, что люди переводили мошенникам деньги, полагая, что говорят с родными или коллегами. Это делает схему чрезвычайно опасной для всех возрастов и категорий пользователей.
Эксперты дают простые, но действенные рекомендации по защите от голосового фишинга:
не сообщать по телефону пароли и коды;
договориться о кодовых фразах с близкими;
перезванивать на официальный номер компании при сомнениях.
Эти меры помогают снизить риск обмана, даже если голос собеседника звучит знакомо.