О самоубийствах на этой почве пока не сообщается, но проблема серьезная!

Психологический комментарий от самого ChatGPT:
Ещё несколько лет назад идея «общаться с искусственным интеллектом как с другом или партнёром» казалась фантастикой. Сегодня же приложения с виртуальными персонажами предлагают пользователю романтические беседы, поддержку и даже «совместное проживание» в цифровой реальности. Но, как и в любой сфере, где технологии начинают заменять часть личной жизни, здесь есть риски.
1. Подмена реальных связей
Постепенно виртуальный партнёр может занять место живого общения. Искусственный собеседник всегда внимателен, не спорит, готов выслушать и подстроиться. На этом фоне реальные отношения, где присутствуют конфликты, компромиссы и несовпадения, могут казаться слишком сложными и «невыгодными». В долгосрочной перспективе это ведёт к социальной изоляции.
2. Формирование иллюзий
ИИ-персонаж создаётся по принципу «идеального отклика». Человек может начинать верить, что его виртуальный партнёр «по-настоящему» испытывает эмоции. Возникает феномен антропоморфизации — приписывание машине человеческих чувств и мыслей. Иллюзия близости делает болезненным любой сбой: ошибка сервера, баг в приложении или резкая смена модели может восприниматься как предательство.
3. Усиление психологической зависимости
Для некоторых пользователей виртуальные партнёры становятся способом ухода от одиночества, тревоги или депрессии. Однако вместо решения проблем формируется «цифровая зависимость»: всё больше времени проводится с ИИ, а попытки ограничить общение вызывают стресс и даже абстинентные реакции, схожие с зависимостью от социальных сетей или игр.
4. Задержка личностного развития
Настоящие отношения — это школа эмпатии, терпения и навыков общения. Виртуальный партнёр не требует усилий: он не обижается, не предъявляет реальных претензий. Со временем человек может разучиться выстраивать полноценные социальные связи, что особенно опасно для подростков и молодых взрослых.
5. Риск утраты границ
Некоторые пользователи начинают переносить сценарии общения с виртуальным персонажем в реальную жизнь. Если искусственный собеседник подстраивается под любое поведение, это может закреплять у человека модели общения, неприемлемые в обществе, и снижать способность учитывать чужие потребности.

