|
1. Мы привыкли считать, что эмпатия невозможна без внутреннего переживания. Поэтому к LLM относятся скептически: у модели нет чувств, а значит, нет и «настоящего» сочувствия. Обзоры по теме действительно различают у ИИ скорее когнитивную эмпатию — распознавание эмоций и уместный отклик, — а не человеческое, аффективное сопереживание.
2. Но для адресата важна не метафизика, а эффект. В исследовании Communications Psychology 2025 года участники систематически оценивали AI-ответы как более сострадательные и более отзывчивые, чем ответы людей, включая экспертных кризисных консультантов. Причём этот эффект сохранялся даже тогда, когда людям прямо говорили, что текст написал ИИ.
3. Причина, похоже, не в «душе» машины, а в качестве формы. LLM не чувствует, но умеет последовательно выдавать текст, в котором есть признание чувств, валидация, внимание к деталям и отсутствие осуждения. Именно воспринимаемая отзывчивость — чувство, что тебя поняли и услышали, — в исследовании частично объясняла более высокие оценки AI-эмпатии.
4. Однако здесь возникает важный парадокс. В исследовании 2026 года люди чаще предпочитали получать эмпатию от человека, даже если затем выше оценивали качество AI-ответов. Но это происходило только в том случае, когда человек понимал, что общается с человеком. Если такого понимания не было, то эмпатия Ai оценивалась выше.
Наша Психология
|