16+
 
USD
78.50
EUR
90.14
CNY
10.90
05 мая 2025 08:04

Каждый второй россиянин столкнется с дипфейк-атакой до конца года

Автор
Каждый второй россиянин столкнется с дипфейк-атакой до конца года Фото pixabay.com

Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали «Известиям» эксперты по искусственному интеллекту.

Сегодня речь идет о голосовых сообщениях и видеокружках, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда с человеком будет разговаривать злоумышленник голосом знакомого.

«Буквально пару лет назад с подобными атаками сталкивались лишь 10% пользователей Сети, но уже к концу этого года каждый второй россиянин может стать жертвой дипфейк-атак», — рассказали «Известиям» в пресс-службе MTS AI.

Если в 2024–2025 годах основное распространение получили фейковые видео в мессенджерах (видеокружки) и голосовые сообщения, то уже через год мошенники смогут в реальном времени имитировать разговор с «дочкой, попавшей в беду», «другом, просящим денег», или «коллегой, срочно требующим перевести средства», отметили в компании. Причем, в отличие от ранних подделок, современные дипфейки всё сложнее распознать даже опытному пользователю.

«Видеокружки и голосовые сообщения в мессенджерах — один из самых популярных способов коммуникации, поэтому они представляют собой потенциально наибольшую угрозу для использования мошенниками после звонков. При этом, в отличие от звонков, у которых есть определители номера и другие способы защиты, у голосовых сообщений и кружков нет возможности проверить их источник», — заявили в компании.

Также нельзя определить, были ли они созданы внутри мессенджера или сгенерированы и загружены вручную. Из-за этого мошенники активно переключаются на них, подчеркнули в пресс-службе MTS AI. Подделка кружков и голосовых сообщений уже активно использовалась злоумышленниками в 2024-м. Однако в этом году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались.

«Эта технология стала массово доступной, а ее качество выросло в разы. Если раньше создание убедительных подделок требовало много времени и серьезных навыков, то теперь их можно производить гораздо быстрее и проще — по сути, научиться этому может любой. Кроме того, отличить фейк от настоящих фото, видео или голоса уже сегодня сложно, а в будущем это станет практически невозможно», — пояснили там.