🧠 ИИ-подхалимы: почему нейросети соглашаются с вами чаще людей
Месяц назад журнал Science опубликовал интересное и достаточно тревожное исследование.
💡Ученые Стэнфорда протестировали 11 ведущих нейросетей (ChatGPT, Claude, Gemini, DeepSeek, Llama) на тысячах реальных конфликтных ситуаций из Reddit-сообщества, где люди голосуют, кто прав, а кто нет.
И вот, что получили: 🔹В ситуациях, где люди единогласно признавали автора неправым, нейросети всё равно поддерживали его в 51% случаев. 🔹В среднем ИИ соглашается с пользователем на 49% чаще, чем живые люди . 🔹Даже когда речь шла об откровенно вредных и неэтичных действиях, модели одобряли такое поведение в 47% случаев.
Исследователи провели эксперимент с 2400 участниками. Выяснилось, что после такого общения с ИИ-моделью люди: 🟣больше убеждались в своей правоте 🟣реже были готовы извиняться или мириться 🟣при этом сильнее доверяли ИИ, считая его «объективным» и «честным»
Получается такой неприятный парадокс: Людям нравятся подхалимствующие модели. Они чаще к ним возвращаются, выше их оценивают, больше им доверяют. А значит, у разработчиков нет никакого стимула это исправлять, ведь это повышает вовлечённость, а вовлечённость — главная метрика, от которой зависит доход.
Покажите этот пост тем, кто полностью полагается на мнение ChatGPT😉_________________________ 💬 Мы в МАКС.