Профессор Воронцов призвал активнее просвещать граждан об угрозе дипфейков
По словам ученого, распознать сгенерированный нейросетью голос человека поможет только "здравый смысл".
"Скорее всего, мы столкнемся с тем, что мы не сможем с хорошим качеством, надежностью распознавать поддельный голос. Соревнование щита и меча будет приводить к тому, что меч здесь все время будет опережать. <…> Нам нужно проводить разъяснительную работу, популяризировать, что ни видео, ни голос теперь не являются надежным свидетельством, что это личность человека", – заявил профессор Воронцов.
Ученый привел в пример актрису, голос которой мошенники украли из-за утечки данных. По его словам, карьера артистки была загублена, так как ее утверждением об "украденном голосе" никто не верил. Воронцов уверен, что только активная просветительская деятельность о возможностях ИИ поможет в противодействии мошенникам.
Также Воронцов уверен, что в России пора вводить кодекс этики для искусственного интеллекта, чтобы защитить граждан от мошенников.
Ранее в беседе с РИА Новости исполнительный директор компании MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков в РФ может увеличиться в десятки тысяч раз за три года.
