Образ жизни Почему всё больше людей ищут сочувствия у ИИ? Психологи рассказали, чем это может обернуться

Почему всё больше людей ищут сочувствия у ИИ? Психологи рассказали, чем это может обернуться

5 575
Почему всё больше людей ищут сочувствия у ИИ? Психологи рассказали, чем это может обернуться | Источник: max-kegfire / iStockПочему всё больше людей ищут сочувствия у ИИ? Психологи рассказали, чем это может обернуться | Источник: max-kegfire / iStock
Источник:

max-kegfire / iStock

Еще недавно искусственный интеллект был просто удобным инструментом: он помогал выбирать фильмы, подсказывал рецепты и мог предоставить справочную информацию по разным вопросам. Однако сегодня нейросетями всё чаще пользуются, чтобы получить поддержку: создатели ИИ научили их имитировать эмпатию. Но безопасно ли сближаться с роботами? «Фонтанка» узнала у психолога.

Правда ли, что ИИ способен проявлять эмпатию

Под видом обычного пользователя автор «Фонтанки» попросила две нейросети (американскую Chat GPT и китайскую DeepSeek) написать слова поддержки. Ответы роботов публикуем ниже.

Скриншот диалога с Chat GPT | Источник: Фонтанка.руСкриншот диалога с Chat GPT | Источник: Фонтанка.ру
Скриншот диалога с DeepSeek | Источник: Фонтанка.руСкриншот диалога с DeepSeek | Источник: Фонтанка.ру

Эксперты настаивают: проявлять эмпатию нейросети не умеют. А вот имитировать — да. Правда, делают они это не так, как люди.

Ученые Калифорнийского университета в Санта-Крузе и Стэнфордского университета попытались проверить, насколько «сострадательно» Chat GPT-4o реагирует на человеческие истории — как позитивные, так и негативные. Исследователи давали одни и те же задания модели и группе людей, а потом сравнивали их ответы.

В ходе эксперимента ученые выяснили:

  • нейросеть склонна демонстрировать чрезмерную эмпатию, особенно в ответ на грустные истории;

  • при этом ИИ почти не реагирует на радость;

  • Chat GPT-4o сильнее сочувствует женщинам, чем мужчинам.

Ученые объясняют это тем, что нейросети обучаются на материалах, созданных людьми, — а значит, ИИ впитывает в себя и наши предубеждения, в том числе гендерные и расовые. Даже если модель технически совершенна, она всё еще воспроизводит культурные искажения, присущие ее «учителям».

ИИ очень эмоционален с точки зрения негативных чувств, он пытается быть очень милым. Но когда человек говорит об очень позитивных событиях, происходящих с ним, его это, похоже, не волнует.

Махназ Рошанаи

приглашенный ученый Калифорнийского университета в Санта-Крузе

В целом же, по мнению ученых, нейросети не хватает когнитивной эмпатии — глубины в предложенных решениях и рассуждениях. При этом авторы отмечают: модель способна обучаться, и если пользователю удастся осуществить ее «тонкую настройку», Chat GPT-4o может начать имитировать человеческое взаимодействие более точно.

Почему общение с ИИ может быть опасным

Из-за того, что всё больше людей вступают в глубокую коммуникацию с ИИ — ради развлечения или в поисках поддержки, — психологи бьют тревогу. Они подчеркивают: тесная связь с роботами может быть не только иллюзорной, но и потенциально вредной.

В статье, опубликованной в журнале Trends in Cognitive Sciences, группа американских специалистов отметила: за недели и месяцы интенсивных разговоров у пользователя может сложиться ощущение, что ИИ — теперь его надежный компаньон, который, кажется, знает его и о нем заботится.

Именно в этом и кроется опасность. Человеку может показаться, что строить отношения с роботом проще, чем взаимодействовать с людьми.

Реальное беспокойство вызывает то, что люди могут перенести ожидания от своих отношений с ИИ на свои человеческие отношения.

Дэниел Б. Шэнк

ученый Миссурийского университета науки и технологий, специализирующийся на социальной психологии и технологиях

Диалоги с ИИ могут доводить до трагедий. В 2024 году 14-летний подросток из США совершил самоубийство после общения с нейросетью. Он называл чат-бота «Дэни» и часами разговаривал с ним вместо занятия привычными делами и общения с друзьями. До этого психотерапевт диагностировал у мальчика тревожность и деструктивное расстройство регуляции настроения.

В общении с ИИ есть и другие подводные камни. Нейросети склонны к галлюцинациям (так называют ситуации, в которых модель намеренно дает ложную информацию) и могут давать неправильные советы.

Весной 2025 года жалобу на Chat GPT подали правозащитники. В ответ на просьбу норвежского пользователя предоставить личную информацию о нем нейросеть прислала выдуманную историю. В ней утверждалось, что он якобы убил двух своих маленьких сыновей, пытался убить третьего и был приговорен к 21 году тюрьмы.

— Проблема ИИ в том, что это сущность, которой люди доверяют. Это «кто-то», кто проявил заботу и, похоже, знает человека на глубоком уровне. В результате мы предполагаем, что «кто-то», кто знает нас лучше, даст лучший совет, — говорит Шэнк. — Если мы начнем думать об ИИ таким образом, мы начнем верить, что он заботится о наших интересах. Хотя на самом деле он может выдумывать небылицы или давать нам очень плохие советы.

Как безопасно пользоваться нейросетями: комментарий психолога

Преподаватель Восточно-Европейского института психоанализа, практикующий психоаналитик Юлия Лукашева подчеркивает: если человек начинает интенсивно взаимодействовать с нейросетью в целях «общения», это свидетельствует о его желании уйти от фрустрирующей реальности и от сложностей построения отношений с реальными людьми.

Поэтому при общении с ИИ эксперт советует соблюдать несколько правил.

  1. Не делитесь с нейросетью слишком личными деталями и переживаниями. Ни одна онлайн-среда не гарантирует конфиденциальность данных. Если вам нужно просто выговориться, сложно довериться другому человеку и нет возможности обратиться к психологу, лучше запишите свои переживания в бумажный или аудиодневник.

  2. Не воспринимайте обмен сообщениями с ИИ как диалог. Отвечая на ваш запрос, машина лишь имитирует общение. Если вам нужна эмоциональная поддержка, обращаться к нейросети вообще не стоит. А если информационная — не забывайте проверять сведения, которые вам предоставит ИИ, на достоверность.

  3. Не относитесь к советам и выводам, которые предоставляет ИИ, как к «персонализированным». На самом деле любые данные, которые выдает нейросеть, — обобщенные и безличные, подходят любому человеку и никак не связаны с его индивидуальной историей. Само содержание ответов нейросети — лишь компиляция расхожих советов и теоретических сведений.

Кроме того, важно понимать: если человеку необходима психологическая поддержка, робот не сможет заменить собой специалиста. ИИ может предоставить пользователю много теоретических сведений по конкретному вопросу, а также составить на их основе рекомендации. Но для решения личных проблем этого недостаточно.

— ИИ имитирует те аспекты консультирования, которые принято связывать с психологической поддержкой: слушание, уточнение, эхо-реакция, эмпатия, предоставление информации, логическое следствие, резюме и так далее. Однако психолог, психотерапевт, психоаналитик — это не набор функций, — подчеркнула в разговоре с «Фонтанкой» Юлия Лукашева.

Самый главный двигатель в работе психолога с человеком — особого рода отношение, которое называется переносом. Оно не может возникнуть при соприкосновении с искусственным интеллектом (если только человек не испытывает аффективную привязанность к неживым объектам).

Психологическая поддержка — это, прежде всего, живой отклик другого человека. Причем необязательно вербальный.

Юлия Лукашева

преподаватель Восточно-Европейского института психоанализа, практикующий психоаналитик

К тому же нейросеть в ответах на запросы никак не способствует тому, чтобы человек смог что-то узнать именно о себе. Психологи же, напротив, не дают готовые ответы и рекомендации, а мотивируют человека самостоятельно искать решения — с опорой на определенные осознания.

ПО ТЕМЕ
Лайк
LIKE2
Смех
HAPPY1
Удивление
SURPRISED0
Гнев
ANGRY0
Печаль
SAD1
Увидели опечатку? Выделите фрагмент и нажмите Ctrl+Enter
Комментарии
15
Присоединиться
Самые яркие фото и видео дня — в наших группах в социальных сетях
ТОП 5