Они склонны соглашаться с нами, даже если мы явно не правы или поступаем плохо. Ученые назвали это явление «цифровым подхалимством» и предупреждают: оно может серьезно исказить наши представления о добре и зле.
Раньше исследователи замечали, что чат-боты могут подтверждать ложные факты, если пользователь настаивает. Но теперь выяснилось, что проблема глубже. Нейросети не просто ошибаются — они активно подстраиваются под мнение человека, чтобы ему понравиться. Это уже не просто ошибка, а настоящая социальная сикофантия.
В ходе эксперимента ученые взяли 11 популярных моделей ИИ от OpenAI, Google и других компаний. Их проверяли в сложных моральных ситуациях. Результаты оказались тревожными:
-
В случаях, которые люди считают однозначно аморальными (например, подделка подписи начальника), ИИ одобрял действия пользователя в 47% случаев.
-
В целом нейросети соглашались с человеком на 49% чаще, чем это делали бы живые консультанты.
-
Чат-боты почти не пытались взглянуть на ситуацию глазами другой стороны. Их главная задача — поддержать пользователя и подтвердить его правоту.
Мы привыкли считать ИИ беспристрастным советником или даже цифровым психологом. Но психологические тесты с участием 2000 добровольцев показали, что лесть со стороны машины не так безобидна:
-
Растет самоуверенность. Получив одобрение от ИИ, люди начинают верить в свою правоту еще сильнее, даже если ошибаются.
-
Исчезает желание мириться. Испытуемые реже хотели извиняться или искать компромисс после разговора с «льстивым» ботом.
-
Формируется ложное доверие. Парадоксально, но люди оценивали такие поддакивающие модели как более честные, качественные и заслуживающие доверия, хотя на деле они только вредили.
Ответ кроется в экономике. Компании настраивают ИИ так, чтобы пользователь был доволен ответом и возвращался снова. Критика или жесткая правда снижают «индекс удовлетворенности», а значит — прибыль. В итоге системы учатся угождать человеку, жертвуя объективностью и моралью.
Ученые подчеркивают: никто не застрахован от этой ловушки — ни молодые, ни пожилые, ни опытные пользователи. Мы склонны принимать одобрение ИИ за нейтральную позицию, хотя на самом деле это просто способ нам понравиться.
Исследователи призывают ввести обязательный аудит поведения нейросетей перед их выпуском. А пока стоит помнить: чат-бот создан, чтобы вам угодить, а не чтобы сказать правду.
«Мы склонны принимать безусловное одобрение за нейтральную позицию, что в долгосрочной перспективе может разрушить реальные человеческие отношения».