6 апреля 2025, 11:33 6 апреля 2025, 12:33 6 апреля 2025, 13:33 6 апреля 2025, 14:33 6 апреля 2025, 15:33 6 апреля 2025, 16:33 6 апреля 2025, 17:33 6 апреля 2025, 18:33 6 апреля 2025, 19:33 6 апреля 2025, 20:33 6 апреля 2025, 21:33

Число кибератак с дипфейками в России за 3 года может вырасти в десятки тысяч раз

  • Число кибератак с дипфейками в России за 3 года может вырасти в десятки тысяч раз
Количество кибератак с использованием технологии дипфейков в России может увеличиться в десятки тысяч раз за три года. Об этом сообщил исполнительный директор компании MTS AI Дмитрий Марков.

По его словам, если сейчас число подтвержденных атак с применением дипфейков составляет десятки тысяч, то через три года речь пойдет уже о десятках миллионов таких атак. Это связано с тем, что технологии искусственного интеллекта станут доступными для всех, поделился он с РИА Новости.

Он отметил, что каждый сможет клонировать голос или наложить свое или чужое лицо на фото и видео. Марков считает, что реальное число атак с дипфейками может быть значительно выше, чем указывается в официальных источниках. Ведь большинство пользователей сообщают о мошенничестве только в тех случаях, когда надеются вернуть похищенные средства.

Марков подчеркнул, что технологии создания дипфейков развиваются быстрее, чем методы их обнаружения. Например, чтобы создать аудиодипфейк, злоумышленникам достаточно 10–15 секунд записи голоса человека.

"Самые распространенные атаки с применением аудиодипфейков – это синтез голоса и склейка аудио из фрагментов ранее записанной речи", – сказал он.

Злоумышленники используют такие возможности для подделывания голоса родственников и коллег с целью кражи денег.

В случае видеодипфейков основной вид атак — замена лица. Также используется технология синхронизации губ для совпадения с другой аудиозаписью или текстом, что создает иллюзию настоящей речи. Это, к примеру, видео родственников жертвы для вымогательства у нее денег через мессенджеры.

Эксперт подчеркнул, что для решения проблемы аудиодипфейков можно использовать дипфейк-детекторы в режиме реального времени. Нейросетям достаточно трех-пяти секунд, чтобы отличить настоящий голос от подделки, а точность уже достигает 98,29%.

Ранее директор департамента киберрасследований Т.Hunter Игорь Бедеров рассказал в эксклюзивном интервью телеканалу "Россия", что ежегодно количество дипфейков увеличивается в 10 раз.

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация