Мошенник научились подделывать голоса.
С помощью технологии deepfake мошенники могут подделывать голоса ваших голоса коллег и друзей. Они просят перевести им деньги или оплатить счета, об этом сообщают «Известия» со ссылкой на представителя компании, специализирующейся на информационной безопасности.
Специалисты считают, что данная технология даст мошенникам «большие возможности». Число преступлений может увеличится на 30%.
- Несколько лет назад правдоподобную подделку голоса в режиме реального времени можно было назвать научной фантастикой, а сейчас это работоспособная технология, - сообщили эксперты.
Еще несколько лет назад воспользоваться технологией deepfake могли единицы – она была слишком дорогой. Сейчас же она вышла в массы. Первый случай мошенничества уже зафиксирован.