Будьте бдительны: Россиян будут подменять другими при обмане через видеозвонки
Будьте бдительны: Россиян будут подменять другими при обмане через видеозвонки

По информации, опубликованной РИА Новости, в ближайшем будущем ожидается возрастание использования технологии дипфейков мошенниками с целью обманывать россиян через видеосвязь. Эта информация была подтверждена главным экспертом "Лаборатории Касперского" Сергеем Головановым. Согласно переданным словам источника, в будущем мошенники могут использовать технологию, позволяющую использовать изображение с экрана в качестве своего собственного лица. При помощи камеры они смогут создавать изображение другого человека, в то время как губы оригинального говорящего будут совпадать с движением реплики аватара. Возможность злоумышленников использовать такую технологию ожидается только через несколько лет.


Фото: pixabay.com


Голованов отметил, что по мнению эксперта, злоумышленники смогут скопировать и голос, и изображение людей, чьи аккаунты будут взломаны. Это позволит им общаться с жертвами в реальном времени, усложняя выявление мошенничества. Однако, по словам Голованова, использование таких технологий для обмана в текущем году не ожидается.


Согласно высказыванию, мошенники в настоящее время могут подделывать голос человека при звонке, однако внимательные абоненты могут заметить некоторые признаки обмана. Например, они могут обратить внимание на то, что интонация звучит роботизированно и отсутствует фоновый шум, хотя в целом тембр голоса может быть похожим.



В России и мире

Будьте бдительны: Россиян будут подменять другими при обмане через видеозвонки

24-01-2024 11:25

По информации, опубликованной РИА Новости, в ближайшем будущем ожидается возрастание использования технологии дипфейков мошенниками с целью обманывать россиян через видеосвязь. Эта информация была подтверждена главным экспертом "Лаборатории Касперского" Сергеем Головановым. Согласно переданным словам источника, в будущем мошенники могут использовать технологию, позволяющую использовать изображение с экрана в качестве своего собственного лица. При помощи камеры они смогут создавать изображение другого человека, в то время как губы оригинального говорящего будут совпадать с движением реплики аватара. Возможность злоумышленников использовать такую технологию ожидается только через несколько лет.


Фото: pixabay.com


Голованов отметил, что по мнению эксперта, злоумышленники смогут скопировать и голос, и изображение людей, чьи аккаунты будут взломаны. Это позволит им общаться с жертвами в реальном времени, усложняя выявление мошенничества. Однако, по словам Голованова, использование таких технологий для обмана в текущем году не ожидается.


Согласно высказыванию, мошенники в настоящее время могут подделывать голос человека при звонке, однако внимательные абоненты могут заметить некоторые признаки обмана. Например, они могут обратить внимание на то, что интонация звучит роботизированно и отсутствует фоновый шум, хотя в целом тембр голоса может быть похожим.


Срочное оповещение об атаках на Ростов и Ростовскую области публикуем в нашем телеграм канале


Оцените статью:
нравится0
не нравится0
00
Сообщить об ошибке!
Поделиться с друзьями:

Добавить «Privet-Rostov.ru» в список ваших источников:
У Вас есть интересная новость, фото или видео? Стали очевидцем происшествия? Звоните:
8 800 201 53 75 (Звонок по России бесплатный), Пишите: [email protected]
Новости партнеров
Последние новости
Privet-Rostov.ru » В России и мире » Будьте бдительны: Россиян будут подменять другими при обмане через видеозвонки