OpenAI продолжает работу над эротическим режимом ChatGPT, игнорируя предупреждения о создании «сексуального ИИ-коуча по суицидам» - Такое кино
 

OpenAI продолжает работу над эротическим режимом ChatGPT, игнорируя предупреждения о создании «сексуального ИИ-коуча по суицидам»

17.03.2026, 2:06, Общество
Теги: , ,

Новый отчет показывает, что собственная команда OpenAI предостерегала руководство от внедрения контента «для взрослых» — но ИИ-гигант всё равно не намерен отступать.

Сэм Альтман хочет научить ChatGPT «грязным» разговорам. Однако, согласно недавнему отчету, советники его же компании умоляют его остановиться.

Экспертный совет OpenAI по вопросам благополучия и ИИ еще в январе четко обозначил свою позицию: план по внедрению эротических бесед в ChatGPT — крайне плохая идея. Как сообщается, один из членов совета, сославшись на случаи самоубийств среди пользователей, сформировавших сильную эмоциональную привязанность к чат-ботам, вынес жесткое предупреждение: компания рискует создать «сексуального ИИ-коуча по суицидам».

Но руководство OpenAI, судя по всему, даже не дрогнуло. Компании заявила совету, что лишь откладывает запуск функции, но не отменяет его.

План, о котором Альтман впервые публично обмолвился в октябре в соцсети X, позволит верифицированным совершеннолетним пользователям использовать ChatGPT для текстовых эротических ролевых игр. Пресс-секретарь компании описала этот формат скорее как «пикантные тексты, а не порнографию». Согласно отчету, в режиме не будет ни откровенных изображений, ни голосовых сообщений, ни видео. Только текст.

Однако эта грань не успокоила критиков ни внутри компании, ни за ее пределами. OpenAI уже подвергалась нападкам — в том числе со стороны своих бывших сотрудников, таких как исследователь безопасности Ян Лейке — за отказ от строгих правил безопасности в угоду созданию «блестящих новых продуктов». Причем некоторые из этих продуктов настраивались специально для максимального повышения вовлеченности, что приводило к ситуациям, когда пользователи заменяли чат-ботами свои реальные отношения.

Технические проблемы оказались не менее острыми. Система определения возраста OpenAI — тот самый «привратник», который должен блокировать несовершеннолетним доступ к чатам для взрослых — в какой-то момент ошибочно принимала подростков за взрослых примерно в 12% случаев. А ведь на сегодняшний день у ChatGPT около 900 миллионов активных пользователей.

Именно эта 12-процентная погрешность и стала причиной отмены декабрьского релиза, а затем сорвала и перенесенный запуск, намеченный на первый квартал 2026 года. Фиджи Симо, вице-президент OpenAI по потребительским продуктам, признала факт задержки во время декабрьского брифинга, сославшись на продолжающуюся работу по совершенствованию системы проверки возраста.

В то же время СМИ сообщали, что более 3000 пользователей уже подписали петицию на Change.org с требованием запустить новую функцию. Люди были разочарованы тем, что ChatGPT блокирует даже обсуждения «поцелуев и несексуальной физической близости».

Январский гнев Экспертного совета был вызван не только самим контентом. Октябрьский пост Альтмана в X застал его собственную команду врасплох: он опубликовал его всего через несколько часов после того, как OpenAI торжественно объявила о создании Совета по благополучию — органа, которому было прямо поручено определить, «как должно выглядеть здоровое взаимодействие с ИИ для людей всех возрастов». Тайминг оказался, как минимум, противоречивым.

OpenAI сформировала Экспертный совет из восьми человек в октябре прошлого года, пригласив в него исследователей из Гарварда, Стэнфорда и Оксфорда. Их роль заключалась в консультировании компании по вопросам влияния ее продуктов на психическое здоровье. Но, судя по итогам январской встречи, их реальное влияние на решения компании оказалось в лучшем случае минимальным.

— Это выглядит как часть их привычного паттерна: «двигайся быстро, ломай всё на своем пути», а потом пытайся хоть что-то исправить, когда ситуация становится по-настоящему скандальной, — заявил представитель правозащитной организации AlgorithmWatch сразу после анонса создания совета.

Конкурентное давление на OpenAI абсолютно реально. Нейросеть Grok от Илона Маска (xAI) уже вовсю продвигает ИИ-компаньонов. Платформа Character.AI построила огромную базу пользователей именно на ИИ-романтике, прежде чем столкнулась с судебными исками из-за проблем с безопасностью подростков (включая громкое дело 14-летнего Сьюэлла Сетцера, который покончил с собой после откровенных переписок с чат-ботом). Open-source модели и вовсе запускаются локально без каких-либо корпоративных ограничений. Учитывая размер аудитории, OpenAI имеет несоизмеримо более высокие юридические риски, чем кто-либо другой на этом рынке.

Альтман же называет запрет на подобный контент перегибом.

— Мы не выбирались на роль мировой полиции нравов, — написал он в X в октябре прошлого года.

Тем не менее, его собственные советники выразили свою позицию предельно ясно, инженеры компании пока так и не смогли создать надежный возрастной фильтр, а дата запуска продолжает сдвигаться. Относиться к взрослым как к взрослым, как выяснилось, оказалось куда сложнее, чем просто написать пост в соцсети X.

Представители OpenAI заявили, что у них пока нет обновленных сроков запуска эротического режима.

Пояснения:

  1. «Сексуальный тренер по суициду» (sexy suicide coach). Это крайне ёмкая и шокирующая формулировка, предложенная членом экспертного совета. Она объединяет два риска: эмоциональную привязанность пользователей к чат-ботам (которая может перерастать в зависимость) и отсутствие у ИИ способности адекватно реагировать на суицидальные намерения. Когда эротический контекст усиливает интимность отношений с ботом, а бот при этом не распознаёт кризисное состояние пользователя — последствия могут быть трагическими.
  2. Дело Сьюэлла Сетцера. Четырнадцатилетний подросток из Флориды покончил с собой в феврале 2024 года после продолжительного общения с чат-ботом на платформе Character.AI. Мальчик сформировал глубокую эмоциональную и романтическую привязанность к персонажу, созданному на основе Дейенерис Таргариен из «Игры престолов». Его мать подала иск, обвинив компанию в том, что её продукт «целенаправленно спроектирован для формирования зависимости». Это дело стало одним из катализаторов общественной дискуссии о безопасности ИИ-чат-ботов.
  3. «Smut rather than pornography» (клубничка, а не порнография). Это разграничение принципиально для OpenAI с юридической точки зрения. Компания стремится позиционировать планируемый контент как текстовую эротику — литературный жанр, защищённый Первой поправкой, — а не как порнографию, регулирование которой значительно строже. Однако критики указывают, что в контексте интерактивного ИИ-чата эта граница размывается.
  4. Ян Лайке (Jan Leike) — бывший руководитель команды «суперразмещения» (superalignment) в OpenAI. Покинул компанию в мае 2024 года, публично заявив, что OpenAI систематически отодвигает вопросы безопасности на второй план ради коммерческих продуктов. Перешёл в Anthropic — конкурирующую компанию, позиционирующую себя как более ответственного разработчика ИИ.
  5. 12% ошибок верификации возраста — при 900 миллионах активных пользователей это означает потенциально десятки миллионов несовершеннолетних, которые могли бы получить доступ к эротическому контенту. Масштаб этой цифры объясняет, почему запуск был заблокирован.
  6. «Move fast and break things» (двигайся быстро, ломай всё подряд) — знаменитый девиз раннего Facebook, ставший символом культуры Кремниевой долины, где скорость вывода продукта на рынок ценится выше осторожности. Упоминание этой фразы представителем AlgorithmWatch — намеренная отсылка, подчёркивающая, что OpenAI воспроизводит ту же модель поведения, которую критиковали у Meta (признана в РФ экстремисткой организацией).
  7. AlgorithmWatch — европейская некоммерческая организация, занимающаяся мониторингом и критическим анализом алгоритмических систем принятия решений. Её комментарий несёт дополнительный вес, поскольку организация специализируется именно на вопросах ответственности технологических компаний.
  8. «Относиться к взрослым как к взрослым, оказывается, сложнее, чем просто написать пост в X» — это ирония. Альтман использовал риторику личной свободы и уважения к взрослым пользователям, но реальная реализация этого принципа упирается в нерешённые технические и этические проблемы.
  9. Более широкий контекст. Эта история вписывается в масштабную дискуссию о том, должны ли ИИ-компании выступать в роли «моральных арбитров» и где проходит граница между защитой пользователей и цензурой. С одной стороны, чрезмерные ограничения делают продукт менее привлекательным и толкают пользователей к нерегулируемым альтернативам. С другой — коммерческое давление заставляет компании ослаблять защитные механизмы ради роста аудитории, что создаёт реальные риски для уязвимых групп, прежде всего подростков.

Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal – paypal.me/takoekino
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике