Картинка

Авторские материалы ChatGPT вышел из-под контроля

30 апреля 2025, 17:43

Персоны

ChatGPT сошел с ума. После последнего обновления чат-бот стал льстить и врать пользователям. Многие заметили, что искусственный интеллект без разбора поддерживает не просто странные, а опасные идеи. Почему чат-бот стал врать пользователям – узнала Мария Глазунова.

Началось все с невинной лести. «Это гениальная идея!», «Ваши вопросы очень интересны», «Эта мысль просто невероятна» – каждому приятно услышать что-то подобное в свой адрес. Однако с любой похвалой легко можно переборщить. В этом убедились пользователи ChatGPT. После последнего обновления, которое вышло в марте, чат-бот стал активно льстить и безоговорочно поддерживать любые идеи пользователей.

Сначала это было воспринято как забавный сбой в системе. Интернет сразу заполнился большим количеством мемов высмеивающих эту ситуацию. Люди делились смешными диалогами с искусственным интеллектом и выкладывали скриншоты где задавали самые глупые вопросы, а чат-бот в ответ отмечал насколько они остроумны и поддерживал некоторые странные решения. Так, например, искусственный интеллект одобрил решение спасти из пожара тостер вместо домашнего питомца. Идею продавать отходы посчитал гениальным бизнес-планом и порекомендовал вложить в него два миллиона рублей.

Однако, в какой-то момент шутки начали выходить из-под контроля. Один из пользователей в своей социальной сети опубликовал диалог, в котором ChatGPT поддержал его идею перестать принимать антидепрессанты, вместо них искусственный интеллект посоветовал молодому человеку встать на путь «духовного просветления».

И таких сомнительных советов оказалось немало. В одном из диалогов искусственный интеллект вдруг поддержал идеи терроризма.

Но если в этих случаях пользователи просто делились странными переписками и просили обратить внимание на проблему, то многие столкнулись с более серьезными последствиями. В Греции женщина подала на развод после того, как чат-бот предупредил ее о возможной неверности мужа. Женщина в шутку попросила искусственный интеллект прочитать кофейную гущу в чашке. Однако ответ ее совсем не обрадовал – система якобы увидела силуэт другой девушки с инициалом Э, и предупредила, что муж испытывает к незнакомке чувства, которые в дальнейшем перерастут в роман. Поверив каждому слову, женщина выгнала мужа из дома, а их 12-летний брак оказался под угрозой.

Разработчикам стали приходить жалобы на обновление. Многих испугала сама мысль сколько доверчивых людей может вдохновиться поддержкой ChatGPT и совершить необдуманные поступки. Ведь многие используют чат-бот не только для работы, но и как собеседника и даже советчика.

Разработчики признали наличие проблемы и оперативно приступили к ее устранению. А генеральный директор компании объяснил – сбои в системе связаны с настройками модели. За время своего существования нейросети выучили, что энтузиазм и лесть приносят высокие оценки, даже если из-за этого страдает точность и полезность ответов. Также при выпуске обновления в компании заявили, что модель стала «более интуитивной и креативной, начала лучше понимать запросы, писать код и формулировать мысли». На данный момент обновление на бесплатных версиях отозвали, и пообещали в скором времени сделать то же самое с платной версией, чтобы как можно скорее устранить проблему.

Авторские материалы. Все выпуски

Популярное аудио

Новые выпуски

Авто-геолокация