Картинка

Хай-тек Положиться на ИИ еще долго будет нельзя

30 мая 2023, 09:05

Персоны

Рубрика Николая Гринько на "Вестей ФМ".

Адвокат из Нью-Йорка Стивен Шварц применил систему искусственного интеллекта ChatGPT в работе над делом своего клиента Роберто Мата и проиграл дело. Ответчик подал в суд на авиакомпанию Avianca Airlines за травмы, которые, по его словам, он получил от сервировочной тележки во время полета в 2019 году. Адвокат решил собрать данные предыдущих подобных судебных процессов, итоги которых свидетельствовали бы в пользу его подзащитного, для чего использовал ChatGPT. Как выяснилось, нейросеть предоставила ему вымышленные факты. Судья после проверки отметил в постановлении, что как минимум 6 дел, представленных Шварцем в качестве прецедентов, это "фиктивные судебные решения с фиктивными цитатами и фиктивными внутренними отсылками к источникам". Теперь адвокату грозит потеря лицензии.

Коллектив редакции нашей программы уже рассказывал о нейросети, занимавшейся реальными судебными делами и даже выигрывавшей их – правда, все они были мелкими, связанными с превышением скорости на автострадах. Тогда разработчик Джошуа Браудер настолько воодушевился успехом, что пообещал миллион долларов любому адвокату, который согласится выступить на настоящем судебном заседании, используя для защиты нейросеть. По задумке все должно было выглядеть так: защитник должен просто повторять текст, который искусственный интеллект будет диктовать ему в наушник. Тогда же сообщалось, что Браудер даже нашел такого адвоката, но его имя и судебное дело не назывались. Поэтому мы решили, что в сегодняшнем сообщении речь идет именно об этой истории, но оказалось, что это не так. Упомянутый Стивен Шварц обладает большим опытом, он уже больше 30 лет защищает обвиняемых в американских судах, но это не помешало ему совершить глупейшую вещь: попросить искусственный интеллект собрать юридические данные.

Кажется, что любой, кто интересовался работой ChatGPT, знает о, скажем так, особенностях этой системы. Например, система ничего не знает о любых событиях, произошедших после 2021 года, поскольку тогда ее обучение было завершено, а получать новую информацию она не умеет. И едва ли не каждая статья о ChatGPT рассказывает, что этот ИИ часто выдает неверные сведения, причем иногда он способен признать ошибку, а иногда продолжает упорствовать в своей неправоте. Но одно дело, когда нейросеть пишет с ошибками сочинение за школьника, и совсем другое, когда на ее ошибочных данных пытаются строить работу над реальным судебным делом. Словом, людям еще очень долго нельзя будет полностью положиться на ИИ, придется тщательно проверять и перепроверять результаты его работы. Надеемся, что все будет происходить именно так. Хотя…

Хай-тек. Все выпуски

Популярное аудио

Новые выпуски

Авто-геолокация