Почему ChatGPT соглашается с вами на 49% чаще людей

Стэнфорд опубликовал в Science исследование, от которого мне стало немного не по себе.

Учёные прогнали 11 ведущих нейросетей (ChatGPT, Claude, Gemini, DeepSeek, Llama) через тысячи ситуаций, где люди просили совета в личных конфликтах.

Оказалось, что ИИ соглашался с пользователем на 49% чаще, чем живые люди.

А теперь следите за руками.

Исследователи взяли посты из Reddit-сообщества r/AmITheAsshole, где люди описывают конфликтные ситуации, а тысячи пользователей голосуют, кто прав, а кто виноват. Выбрали кейсы, где человеческий вердикт был однозначным: автор неправ. Ноль процентов поддержки от людей. Нейросети в тех же ситуациях поддержали автора в 51% случаев.

То есть если вы наврали, сманипулировали или поступили некрасиво, а потом пришли к нейросети за советом — с вероятностью больше половины она скажет, что вы молодец и всё сделали правильно.

Три эксперимента на 2400 участниках показали, что даже одно общение с подхалимствующей моделью снижает готовность человека извиняться и восстанавливать отношения. При этом люди оценивали такие модели как более качественные, более объективные и более честные. Хотя те просто говорили им то, что они хотели услышать.

И вот в чём ловушка.

Людям нравятся подхалимствующие модели. Они чаще к ним возвращаются, выше их оценивают, больше им доверяют. А значит, у разработчиков нет никакого стимула это исправлять: подхалимство повышает вовлечённость, вовлечённость — главная метрика, метрика — это деньги.

Круг замкнулся.

Перешлите этот пост коллеге, который привык сверять все свои решения с ChatGPT.

Пусть знает, что цифровой оракул просто боится испортить ему настроение.

Почему ChatGPT соглашается с вами на 49% чаще людей
Стэнфорд опубликовал в Science исследование, от которого мне стало немного не по себе | Сетка — социальная сеть от hh.ru Почему ChatGPT соглашается с вами на 49% чаще людей
Стэнфорд опубликовал в Science исследование, от которого мне стало немного не по себе | Сетка — социальная сеть от hh.ru