25 апреля 2025, 10:35 25 апреля 2025, 11:35 25 апреля 2025, 12:35 25 апреля 2025, 13:35 25 апреля 2025, 14:35 25 апреля 2025, 15:35 25 апреля 2025, 16:35 25 апреля 2025, 17:35 25 апреля 2025, 18:35 25 апреля 2025, 19:35 25 апреля 2025, 20:35

Профессор Воронцов призвал активнее просвещать граждан об угрозе дипфейков

  • Профессор Воронцов призвал активнее просвещать граждан об угрозе дипфейков
В России необходимо активнее проводить просветительскую деятельность о мошеннических возможностях ИИ, как например, дипфейки или подделка голоса, так как технологического противостояния пока не изобретено. Об этом в эфире телеканала "Россия 24" рассказал профессор РАН, профессор МФТИ и МГУ имени М.В. Ломоносова Константин Воронцов.

По словам ученого, распознать сгенерированный нейросетью голос человека поможет только "здравый смысл".

"Скорее всего, мы столкнемся с тем, что мы не сможем с хорошим качеством, надежностью распознавать поддельный голос. Соревнование щита и меча будет приводить к тому, что меч здесь все время будет опережать. <…> Нам нужно проводить разъяснительную работу, популяризировать, что ни видео, ни голос теперь не являются надежным свидетельством, что это личность человека", – заявил профессор Воронцов.

Ученый привел в пример актрису, голос которой мошенники украли из-за утечки данных. По его словам, карьера артистки была загублена, так как ее утверждением об "украденном голосе" никто не верил. Воронцов уверен, что только активная просветительская деятельность о возможностях ИИ поможет в противодействии мошенникам.

Также Воронцов уверен, что в России пора вводить кодекс этики для искусственного интеллекта, чтобы защитить граждан от мошенников.

Ранее в беседе с РИА Новости исполнительный директор компании MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков в РФ может увеличиться в десятки тысяч раз за три года.

Читайте также

Видео по теме

Эфир

Лента новостей

Авто-геолокация