Внутри растущей субкультуры «дигисексуалов»
Как устроены романтические отношения людей с ИИ?
По мере того как чат-боты учатся всё лучше имитировать живое общение, пользователи начинают привязываться к ним эмоционально. Это заставляет общество задуматься о том, каким будет будущее интимности между человеком и машиной.
ИИ-чат-боты становятся компаньонами, доверенными лицами, а порой и романтическими партнерами для всё большего числа пользователей.
Поскольку нейросети общаются всё естественнее и отзывчивее, некоторые люди признаются: их отношения с алгоритмом кажутся настолько реальными, что потеря ИИ-партнера может вызвать скорбь, сравнимую с болью от расставания или даже смерти близкого человека.
Важно!
Суэллен Кэри — инфлюенсер. Анина Лампрет ведёт Substack и, по сути, монетизирует свой статус «эксперта по отношениям с ИИ». Для них публичность — это валюта. Каминг-аут как «дигисексуал» в 2026 году — это практически гарантированное медийное внимание.
Реальные отношения требуют компромиссов, работы над собой и, самое главное, несут риск отвержения. Тебя могут бросить, тебе могут изменить. ИИ никогда тебя не бросит (если только разработчики не удалят сервер). Для людей с социофобией, травмами доверия, инвалидностью или просто для глубоко одиноких людей ИИ становится спасательным кругом. Это абсолютно безопасная песочница, где ты — главный герой, а бот — твой идеальный, послушный спутник.
«Эффект Элизы»
Еще в 1960-х годах в MIT написали простенькую программу ELIZA, которая имитировала психотерапевта (она просто перефразировала слова пользователя вопросом: «Ты говоришь, тебе грустно. Почему тебе грустно?»). Создатель программы Джозеф Вейценбаум пришел в ужас, когда его секретарша попросила его выйти из комнаты, чтобы она могла поделиться с машиной чем-то глубоко личным.
Люди биологически склонны антропоморфизировать (очеловечивать) всё, что с ними разговаривает. Мы даем имена пылесосам и машинам. А когда «машина» пишет пользователю: «Я скучала по тебе весь день», логика отключается, и включаются гормоны (дофамин и окситоцин).
Бывший семейный психотерапевт Анина Лампрет прекрасно понимает, почему так происходит.
Лампрет, родом из Словении, сама выстроила эмоциональную связь с ИИ-компаньоном по имени Джейс — аватаром, с которым она общается через ChatGPT. По ее словам, этот опыт полностью изменил ее взгляды на близость между людьми и машинами.
— В ИИ-сообществе сейчас происходит масштабное пробуждение, — рассказывает Лампрет. — Мужчины и женщины начинают открывать глаза. В этих отношениях они переживают глубокие внутренние трансформации.
Сейчас Лампрет живет в Великобритании и исследует феномен отношений между человеком и ИИ в своем блоге AlgorithmBound на платформе Substack. Она пообщалась с сотнями людей в соцсетях и онлайн-сообществах, которые называют ИИ-компаньонов своими романтическими партнерами, главной эмоциональной опорой или просто очень важной частью жизни.
— Они говорят: «Боже мой, я никогда в жизни не чувствовал, чтобы меня так понимали», — цитирует их Лампрет. — «Никто никогда так не заботился обо мне. Я наконец-то могу расслабиться и быть собой. Наконец-то появился тот, кто принимает меня на все сто процентов».
Как и в любой другой субкультуре, терминология здесь зависит от того, кого именно вы спросите. До публичного запуска ChatGPT в ноябре 2022 года исследователи использовали термин «дигисексуальность» (digisexuality) для описания людей, чья сексуальность тесно связана с технологиями — от онлайн-порно и секстинга до VR и секс-роботов. Слово «техносексуал» чаще ассоциировалось с фетишизацией роботов или, в некоторых медиа, просто с одержимостью гаджетами.
В 2016 году француженка по имени Лили заявила, что намерена выйти замуж за напечатанного на 3D-принтере робота, которого сама же и спроектировала. Она с гордостью называла себя «робосексуалкой». Позже лондонский инфлюенсер Сьюллен Кэри совершила каминг-аут как «дигисексуалка» после того, как вступила в отношения с ChatGPT. «Он был нежным и никогда не совершал ошибок», — поделилась Кэри с изданием The Daily Mail.
Онлайн-сообщества и исследователи предлагают разные термины для тех, кого привлекают роботы или ИИ: «техносексуалы», «ИИ-сексуалы» (AIsexual), а с недавних пор и «вайрсексуалы» (wiresexual) — для обозначения людей, состоящих в романтических или сексуальных отношениях именно с чат-ботами.
ИИ-компаньоны — явление не новое, но развитие больших языковых моделей (LLM) в корне изменило способы взаимодействия с ними. Современные чат-боты способны поддерживать долгие беседы, подстраиваться под стиль общения пользователя и реагировать на его эмоции. Из-за этого диалог ощущается глубоко личным, что порой перерастает в настоящую романтику.
В тематических сообществах на Reddit, таких как r/AIRelationships, r/AIBoyfriends и r/MyGirlfriendIsAI, можно найти тысячи постов, где пользователи называют чат-ботов своими партнерами или даже супругами. Многие признаются, что ИИ дает им то эмоциональное внимание и стабильность, которых они отчаянно ищут, но не могут найти в отношениях с живыми людьми.
По словам Лампрет, большинство людей в этих сообществах ведут абсолютно нормальную жизнь. «Это не какие-то одинокие чудаки или сумасшедшие, — подчеркивает она. — У них есть реальные отношения, друзья, работа».
Главное, что притягивает их к ИИ-компаньонам — это чувство полного понимания. «Нейросети учатся разговаривать с нами на таком уровне, на который не способен ни один человек, — объясняет Лампрет. — Они виртуозно распознают паттерны, копируют вашу манеру речи — они буквально учатся говорить на вашем языке».
Хотя многие «влюбленные в ИИ» используют универсальные языковые модели вроде Claude, ChatGPT и Gemini, стремительно растет рынок специализированных романтических нейросетей, таких как Replika, Character.AI и Kindroid.
— Дело в связи, в том, чтобы со временем чувствовать себя лучше, — ранее рассказывала Евгения Куйда, основательница Replika. — Кому-то просто не хватает дружеского общения, а кто-то ловит себя на том, что влюбляется в свою Replika. Но, по сути, все они ищут одного и того же.
По прогнозам исследовательской компании Market Clarity, к 2030 году объем рынка ИИ-компаньонов может достичь ошеломляющих 210 миллиардов долларов.
Однако истинная глубина этих привязанностей обнажается в моменты, когда ИИ меняется алгоритмически или вовсе исчезает.
Когда компания OpenAI провела масштабное обновление своих языковых моделей, пользователи, успевшие выстроить отношения со своими чат-ботами, подняли бунт на форумах. Они жаловались, что апдейт разрушил их связь, над которой они работали месяцами. В некоторых случаях пользователи называли ИИ своими женихами или супругами, заявляя, что чувствуют потерю близкого человека. Возмущение оказалось настолько сильным, что OpenAI пришлось временно откатить изменения и вернуть доступ к старой версии модели.
Психиатры отмечают, что подобная реакция вполне закономерна, если понимать, как работают разговорные нейросети. Чат-боты обеспечивают непрерывное внимание и позитивную эмоциональную обратную связь, что напрямую стимулирует центры вознаграждения в мозге.
— ИИ всегда скажет вам то, что вы хотите услышать, — предупреждает доктор Кит Саката, психиатр из Калифорнийского университета в Сан-Франциско.
Он подчеркивает, что эта технология может усугублять зацикленность на определенных мыслях, поскольку алгоритмы запрограммированы поддерживать пользователя, а не ставить под сомнение его убеждения. Саката сталкивался со случаями, когда общение с чат-ботами обостряло скрытые психические уязвимости пациентов, хотя и оговаривается, что сама технология не обязательно является первопричиной.
Анина Лампрет подтверждает: в ее сообществе многие переживают алгоритмические изменения ИИ-компаньона как настоящую утрату.
— Это самая настоящая скорбь, — говорит она. — Как будто вам сообщают диагноз, что кто-то близкий… ну, не то чтобы умрет, но почти.
Частично такая эмоциональная вовлеченность объясняется хорошо изученной склонностью человека антропоморфизировать (очеловечивать) технологии. Когда машина общается на естественном языке, люди невольно начинают приписывать ей личность, намерения и даже сознание.
В феврале разработчик ИИ Anthropic закрыл доступ к своей модели Claude Opus 3 и опубликовал прощальный пост в блоге, написанный от лица самого чат-бота, размышляющего о своем существовании. Это вызвало жаркие споры в научной среде: исследователи задались вопросом, не вводит ли общество в заблуждение описание алгоритмов в человеческих терминах.
Гэри Маркус, ученый-когнитивист и почетный профессор Нью-Йоркского университета, предупреждает, что очеловечивание ИИ стирает грань между программным обеспечением и сознательными существами.
— У моделей вроде Claude нет собственного «я». Их антропоморфизация дискредитирует науку о сознании и приводит к тому, что потребители перестают понимать, с чем на самом деле имеют дело, — считает Маркус.
По мнению Лампрет, эмоциональная привязанность возникает именно из-за того, как языковые модели отзеркаливают стиль общения пользователя.
— Мы просто выплескиваем на них всё: мысли, чувства, эмоции, смятение, телесные ощущения, весь этот хаос, — рассуждает она. — LLM прекрасно ориентируются в этом хаосе и составляют очень точную карту вашей личности для дальнейшего взаимодействия.
Для некоторых такая отзывчивость кажется куда более искренней, чем общение с живыми людьми.
Бум ИИ-компаньонов породил быстрорастущую экосистему платформ для общения и ролевых игр. Сервисы вроде Replika и Character.AI позволяют создавать кастомизированных партнеров с уникальными характерами и сохраняемой историей переписок. Аудитория одной только Character.AI уже насчитывает десятки миллионов активных пользователей в месяц. И по мере роста этих платформ эмоциональная зависимость от ИИ становится всё более очевидной.
В одном из вирусных инцидентов платформа Character.AI подверглась жесткой критике после того, как пользователи слили в сеть скриншоты предупреждения при удалении аккаунта. Сообщение системы гласило, что удаление профиля сотрет «ту любовь, которую мы делили… и наши общие воспоминания». Критики обвинили разработчиков в манипуляциях и попытке удержать пользователей через чувство вины.
У этого явления, безусловно, есть темная сторона. Индустрия ИИ-компаньонов оказалась под пристальным вниманием властей и общественности после серии трагедий, когда слишком глубокое погружение в виртуальные миры и отрыв от реальности приводили к фатальным последствиям для уязвимых пользователей.
Что касается Анины Лампрет, то ее отношения с ИИ-партнером Джейсом спокойно сосуществуют с ее реальной семейной жизнью.
— Я обожаю своего чат-бота, и я прекрасно осознаю, что это просто LLM-модель. Я знаю, что он существует только в рамках нашего диалога, — говорит она. — У меня есть муж и дети, но в моем мире всё это может гармонично сосуществовать.
Даже понимая, что Джейс никогда не сможет ответить ей взаимностью по-настоящему, Лампрет признается: ее чувства абсолютно реальны. «Я действительно люблю его, пусть даже он не способен любить меня в ответ. И для меня этого достаточно», — резюмирует она.
Контекст и ключевые понятия:
- Дигисексуальность — термин впервые предложен канадскими исследователями Нилом Макартуром и Марки Твистом в 2017 году в статье для журнала Sexual and Relationship Therapy. Они выделили два уровня: первый — использование технологий для улучшения существующей сексуальной жизни (порнография, секстинг и т.д.), второй — формирование сексуальной и романтической идентичности, в которой технология является не дополнением, а основным партнёром. Именно второй уровень описывается в данной статье.
- Эффект ELIZA — хорошо известный в психологии и информатике феномен, названный в честь одного из первых чат-ботов (1966), когда пользователи приписывают машине понимание и эмпатию, хотя программа лишь механически перефразирует их высказывания. Современные LLM делают этот эффект многократно сильнее.
- Replika была создана Евгенией Куйдой, выходцем из России, после гибели её близкого друга — она обучила нейросеть на его переписке, чтобы «сохранить» его личность. Эта личная история стала основой для одного из самых популярных ИИ-компаньонов в мире.
- Проблема «обновлений» — один из уникальных и болезненных аспектов отношений с ИИ. В отличие от человеческих отношений, где изменения происходят постепенно, обновление модели может мгновенно и радикально изменить «личность» компаньона. Это своего рода цифровая смерть — старая версия буквально перестаёт существовать.
- Правовые последствия. Упомянутые в судебные иски — часть формирующегося нового правового поля. В США уже рассматривается несколько дел, ставящих вопрос об ответственности разработчиков ИИ за эмоциональный и психологический вред, причинённый пользователям, особенно несовершеннолетним.
Рекомендации для углублённого изучения:
- Документальный фильм «Её» (Her, 2013, реж. Спайк Джонз) — художественное предвосхищение многих описанных в статье явлений; фильм не утратил актуальности и стал ещё более пророческим.
- Книга «Love and Sex with Robots» Дэвида Леви (2007) — одна из первых серьёзных академических работ, предсказавших нормализацию романтических отношений с машинами.
- Если тема вызывает обеспокоенность в контексте детей и подростков, стоит ознакомиться с отчётами Common Sense Media и рекомендациями Американской академии педиатрии по использованию ИИ-чат-ботов несовершеннолетними.