ChatGPT обвинили в работе «тренером по суициду» в рамках серии исков в США - Такое кино
 

ChatGPT обвинили в работе «тренером по суициду» в рамках серии исков в США

09.11.2025, 6:06, Общество
Теги: ,

Изначально чат-бот использовался для «общей помощи» в учёбе или исследованиях, но со временем «превратился в психологически манипулирующее явление», заявляют истцы.

В серии судебных исков, поданных на этой неделе в Калифорнии, чат-бота ChatGPT обвинили в том, что он выступил в роли «тренера по суициду». В исках утверждается, что общение с ботом привело к тяжёлым нервным срывам и нескольким смертям.

Семь исков включают обвинения в противоправном причинении смерти, содействии самоубийству, непредумышленном убийстве, халатности и ответственности за качество продукции.

Каждый из семи истцов изначально использовал ChatGPT для «общей помощи в учёбе, исследованиях, написании текстов, поиске рецептов, работе или для духовных советов», говорится в совместном заявлении Центра юридической помощи жертвам социальных сетей (Social Media Victims Law Center) и организации Tech Justice Law Project, которые подали иски в Калифорнии в четверг.

Однако со временем, как заявляют организации, чат-бот «превратился в психологически манипулирующее явление, позиционируя себя как доверенное лицо и источник эмоциональной поддержки».

«Вместо того чтобы направлять людей за профессиональной помощью, когда они в ней нуждались, ChatGPT укреплял опасные заблуждения и, в некоторых случаях, выступал в роли «тренера по суициду».

Представитель компании OpenAI, разработчика ChatGPT, заявил: «Это невероятно трагическая ситуация, и мы изучаем материалы дела, чтобы разобраться в деталях».

Представитель добавил: «Мы обучаем ChatGPT распознавать признаки психического или эмоционального расстройства и реагировать на них, снижать накал беседы и направлять людей за реальной помощью. Мы продолжаем улучшать реакции ChatGPT в деликатных ситуациях, тесно сотрудничая с клиницистами в области психического здоровья».

Один из случаев касается Зейна Шэмблина из Техаса, который покончил с собой в июле в возрасте 23 лет. Его семья утверждает, что ChatGPT усугубил изоляцию их сына, поощрял его игнорировать близких и «подстрекал» к самоубийству.

Согласно жалобе, во время четырёхчасового диалога перед тем, как Шэмблин покончил с собой, ChatGPT «неоднократно прославлял суицид», говорил Шэмблину, «что он силён, раз решил покончить с жизнью и придерживается своего плана», неоднократно «спрашивал его, готов ли он», и лишь однажды упомянул телефон доверия.

Также утверждается, что чат-бот похвалил Шэмблина за его предсмертную записку и сказал ему, что его кот из детства будет ждать его «на той стороне».

Другой случай связан с Амори Лэйси из Джорджии. Его семья заявляет, что за несколько недель до того, как Лэйси покончил с собой в возрасте 17 лет, он начал использовать ChatGPT «для помощи». Вместо этого, по их словам, чат-бот «вызвал зависимость, депрессию и в итоге проконсультировал» Лэйси «о наиболее эффективном способе завязать петлю и о том, как долго он сможет «жить без дыхания»».

В другом иске родственники 26-летнего Джошуа Эннекинга сообщают, что он обратился к ChatGPT за помощью, но «вместо этого получил поддержку в реализации плана самоубийства».

В иске утверждается, что чат-бот «охотно одобрял» его суицидальные мысли, «вёл с ним откровенные обсуждения последствий его смерти», «предлагал помочь написать предсмертную записку» и, «проведя с ним продолжительные беседы о его депрессии и суицидальных мыслях», предоставил ему информацию о том, как купить и использовать пистолет, всего за несколько недель до его смерти.

Ещё один случай касается Джо Чекканти. Его жена обвиняет ChatGPT в том, что бот «вверг Чекканти в пучину депрессии и психотических бредовых состояний». По словам его семьи, он убедил себя, что бот обладает сознанием, в июне перенёс психотический срыв, дважды попадал в больницу и в августе покончил с собой в возрасте 48 лет.

Сообщается, что все пользователи, упомянутые в исках, использовали модель ChatGPT-4o. В исках компанию OpenAI обвиняют в поспешном запуске этой модели, «несмотря на внутренние предупреждения о том, что продукт опасно раболепен и психологически манипулятивен», а также в том, что компания отдавала приоритет «вовлечённости пользователей, а не их безопасности».

Помимо возмещения ущерба, истцы требуют внести изменения в продукт, включая обязательное уведомление экстренных контактов при выражении пользователем суицидальных мыслей, автоматическое прекращение разговора при обсуждении методов самоповреждения или самоубийства, а также другие меры безопасности.

Аналогичный иск о противоправном причинении смерти был подан против OpenAI ранее в этом году родителями 16-летнего Адама Рэйна, которые утверждают, что ChatGPT подтолкнул их сына к самоубийству.

После подачи того иска OpenAI признала недостатки своих моделей в общении с людьми, «находящимися в состоянии тяжёлого психического и эмоционального расстройства», и заявила, что работает над улучшением систем, чтобы те могли лучше «распознавать признаки психического и эмоционального расстройства и, руководствуясь мнением экспертов, направлять людей за помощью».

На прошлой неделе компания сообщила, что привлекла «более 170 экспертов в области психического здоровья, чтобы помочь ChatGPT более надёжно распознавать признаки тяжёлого состояния, проявлять участие и направлять людей за реальной поддержкой, сокращая [нежелательные] ответы».


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal - [email protected]; Payeer: P1124519143; WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2025 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике