
Авторские материалы ChatGPT вышел из-под контроля
Персоны
ChatGPT сошел с ума. После последнего обновления чат-бот стал льстить и врать пользователям. Многие заметили, что искусственный интеллект без разбора поддерживает не просто странные, а опасные идеи. Почему чат-бот стал врать пользователям – узнала Мария Глазунова.
Началось все с невинной лести. «Это гениальная идея!», «Ваши вопросы очень интересны», «Эта мысль просто невероятна» – каждому приятно услышать что-то подобное в свой адрес. Однако с любой похвалой легко можно переборщить. В этом убедились пользователи ChatGPT. После последнего обновления, которое вышло в марте, чат-бот стал активно льстить и безоговорочно поддерживать любые идеи пользователей.
Сначала это было воспринято как забавный сбой в системе. Интернет сразу заполнился большим количеством мемов высмеивающих эту ситуацию. Люди делились смешными диалогами с искусственным интеллектом и выкладывали скриншоты где задавали самые глупые вопросы, а чат-бот в ответ отмечал насколько они остроумны и поддерживал некоторые странные решения. Так, например, искусственный интеллект одобрил решение спасти из пожара тостер вместо домашнего питомца. Идею продавать отходы посчитал гениальным бизнес-планом и порекомендовал вложить в него два миллиона рублей.
Однако, в какой-то момент шутки начали выходить из-под контроля. Один из пользователей в своей социальной сети опубликовал диалог, в котором ChatGPT поддержал его идею перестать принимать антидепрессанты, вместо них искусственный интеллект посоветовал молодому человеку встать на путь «духовного просветления».
И таких сомнительных советов оказалось немало. В одном из диалогов искусственный интеллект вдруг поддержал идеи терроризма.
Но если в этих случаях пользователи просто делились странными переписками и просили обратить внимание на проблему, то многие столкнулись с более серьезными последствиями. В Греции женщина подала на развод после того, как чат-бот предупредил ее о возможной неверности мужа. Женщина в шутку попросила искусственный интеллект прочитать кофейную гущу в чашке. Однако ответ ее совсем не обрадовал – система якобы увидела силуэт другой девушки с инициалом Э, и предупредила, что муж испытывает к незнакомке чувства, которые в дальнейшем перерастут в роман. Поверив каждому слову, женщина выгнала мужа из дома, а их 12-летний брак оказался под угрозой.
Разработчикам стали приходить жалобы на обновление. Многих испугала сама мысль сколько доверчивых людей может вдохновиться поддержкой ChatGPT и совершить необдуманные поступки. Ведь многие используют чат-бот не только для работы, но и как собеседника и даже советчика.
Разработчики признали наличие проблемы и оперативно приступили к ее устранению. А генеральный директор компании объяснил – сбои в системе связаны с настройками модели. За время своего существования нейросети выучили, что энтузиазм и лесть приносят высокие оценки, даже если из-за этого страдает точность и полезность ответов. Также при выпуске обновления в компании заявили, что модель стала «более интуитивной и креативной, начала лучше понимать запросы, писать код и формулировать мысли». На данный момент обновление на бесплатных версиях отозвали, и пообещали в скором времени сделать то же самое с платной версией, чтобы как можно скорее устранить проблему.