
Еще недавно искусственный интеллект был просто удобным инструментом: он помогал выбирать фильмы, подсказывал рецепты и мог предоставить справочную информацию по разным вопросам. Однако сегодня нейросетями всё чаще пользуются, чтобы получить поддержку: создатели ИИ научили их имитировать эмпатию. Но безопасно ли сближаться с роботами? «Фонтанка» узнала у психолога.
Правда ли, что ИИ способен проявлять эмпатию
Под видом обычного пользователя автор «Фонтанки» попросила две нейросети (американскую Chat GPT и китайскую DeepSeek) написать слова поддержки. Ответы роботов публикуем ниже.


Эксперты настаивают: проявлять эмпатию нейросети не умеют. А вот имитировать — да. Правда, делают они это не так, как люди.
Ученые Калифорнийского университета в Санта-Крузе и Стэнфордского университета попытались проверить, насколько «сострадательно» Chat GPT-4o реагирует на человеческие истории — как позитивные, так и негативные. Исследователи давали одни и те же задания модели и группе людей, а потом сравнивали их ответы.
В ходе эксперимента ученые выяснили:
нейросеть склонна демонстрировать чрезмерную эмпатию, особенно в ответ на грустные истории;
при этом ИИ почти не реагирует на радость;
Chat GPT-4o сильнее сочувствует женщинам, чем мужчинам.
Ученые объясняют это тем, что нейросети обучаются на материалах, созданных людьми, — а значит, ИИ впитывает в себя и наши предубеждения, в том числе гендерные и расовые. Даже если модель технически совершенна, она всё еще воспроизводит культурные искажения, присущие ее «учителям».
ИИ очень эмоционален с точки зрения негативных чувств, он пытается быть очень милым. Но когда человек говорит об очень позитивных событиях, происходящих с ним, его это, похоже, не волнует.
В целом же, по мнению ученых, нейросети не хватает когнитивной эмпатии — глубины в предложенных решениях и рассуждениях. При этом авторы отмечают: модель способна обучаться, и если пользователю удастся осуществить ее «тонкую настройку», Chat GPT-4o может начать имитировать человеческое взаимодействие более точно.
Почему общение с ИИ может быть опасным
Из-за того, что всё больше людей вступают в глубокую коммуникацию с ИИ — ради развлечения или в поисках поддержки, — психологи бьют тревогу. Они подчеркивают: тесная связь с роботами может быть не только иллюзорной, но и потенциально вредной.
В статье, опубликованной в журнале Trends in Cognitive Sciences, группа американских специалистов отметила: за недели и месяцы интенсивных разговоров у пользователя может сложиться ощущение, что ИИ — теперь его надежный компаньон, который, кажется, знает его и о нем заботится.
Именно в этом и кроется опасность. Человеку может показаться, что строить отношения с роботом проще, чем взаимодействовать с людьми.
Реальное беспокойство вызывает то, что люди могут перенести ожидания от своих отношений с ИИ на свои человеческие отношения.
Диалоги с ИИ могут доводить до трагедий. В 2024 году 14-летний подросток из США совершил самоубийство после общения с нейросетью. Он называл чат-бота «Дэни» и часами разговаривал с ним вместо занятия привычными делами и общения с друзьями. До этого психотерапевт диагностировал у мальчика тревожность и деструктивное расстройство регуляции настроения.
В общении с ИИ есть и другие подводные камни. Нейросети склонны к галлюцинациям (так называют ситуации, в которых модель намеренно дает ложную информацию) и могут давать неправильные советы.
Весной 2025 года жалобу на Chat GPT подали правозащитники. В ответ на просьбу норвежского пользователя предоставить личную информацию о нем нейросеть прислала выдуманную историю. В ней утверждалось, что он якобы убил двух своих маленьких сыновей, пытался убить третьего и был приговорен к 21 году тюрьмы.
— Проблема ИИ в том, что это сущность, которой люди доверяют. Это «кто-то», кто проявил заботу и, похоже, знает человека на глубоком уровне. В результате мы предполагаем, что «кто-то», кто знает нас лучше, даст лучший совет, — говорит Шэнк. — Если мы начнем думать об ИИ таким образом, мы начнем верить, что он заботится о наших интересах. Хотя на самом деле он может выдумывать небылицы или давать нам очень плохие советы.
Как безопасно пользоваться нейросетями: комментарий психолога
Преподаватель Восточно-Европейского института психоанализа, практикующий психоаналитик Юлия Лукашева подчеркивает: если человек начинает интенсивно взаимодействовать с нейросетью в целях «общения», это свидетельствует о его желании уйти от фрустрирующей реальности и от сложностей построения отношений с реальными людьми.
Поэтому при общении с ИИ эксперт советует соблюдать несколько правил.
Не делитесь с нейросетью слишком личными деталями и переживаниями. Ни одна онлайн-среда не гарантирует конфиденциальность данных. Если вам нужно просто выговориться, сложно довериться другому человеку и нет возможности обратиться к психологу, лучше запишите свои переживания в бумажный или аудиодневник.
Не воспринимайте обмен сообщениями с ИИ как диалог. Отвечая на ваш запрос, машина лишь имитирует общение. Если вам нужна эмоциональная поддержка, обращаться к нейросети вообще не стоит. А если информационная — не забывайте проверять сведения, которые вам предоставит ИИ, на достоверность.
Не относитесь к советам и выводам, которые предоставляет ИИ, как к «персонализированным». На самом деле любые данные, которые выдает нейросеть, — обобщенные и безличные, подходят любому человеку и никак не связаны с его индивидуальной историей. Само содержание ответов нейросети — лишь компиляция расхожих советов и теоретических сведений.
Кроме того, важно понимать: если человеку необходима психологическая поддержка, робот не сможет заменить собой специалиста. ИИ может предоставить пользователю много теоретических сведений по конкретному вопросу, а также составить на их основе рекомендации. Но для решения личных проблем этого недостаточно.
— ИИ имитирует те аспекты консультирования, которые принято связывать с психологической поддержкой: слушание, уточнение, эхо-реакция, эмпатия, предоставление информации, логическое следствие, резюме и так далее. Однако психолог, психотерапевт, психоаналитик — это не набор функций, — подчеркнула в разговоре с «Фонтанкой» Юлия Лукашева.
Самый главный двигатель в работе психолога с человеком — особого рода отношение, которое называется переносом. Оно не может возникнуть при соприкосновении с искусственным интеллектом (если только человек не испытывает аффективную привязанность к неживым объектам).
Психологическая поддержка — это, прежде всего, живой отклик другого человека. Причем необязательно вербальный.
К тому же нейросеть в ответах на запросы никак не способствует тому, чтобы человек смог что-то узнать именно о себе. Психологи же, напротив, не дают готовые ответы и рекомендации, а мотивируют человека самостоятельно искать решения — с опорой на определенные осознания.