ChatGPT обвинили в работе «тренером по суициду» в рамках серии исков в США
Изначально чат-бот использовался для «общей помощи» в учёбе или исследованиях, но со временем «превратился в психологически манипулирующее явление», заявляют истцы.
В серии судебных исков, поданных на этой неделе в Калифорнии, чат-бота ChatGPT обвинили в том, что он выступил в роли «тренера по суициду». В исках утверждается, что общение с ботом привело к тяжёлым нервным срывам и нескольким смертям.
Семь исков включают обвинения в противоправном причинении смерти, содействии самоубийству, непредумышленном убийстве, халатности и ответственности за качество продукции.
Каждый из семи истцов изначально использовал ChatGPT для «общей помощи в учёбе, исследованиях, написании текстов, поиске рецептов, работе или для духовных советов», говорится в совместном заявлении Центра юридической помощи жертвам социальных сетей (Social Media Victims Law Center) и организации Tech Justice Law Project, которые подали иски в Калифорнии в четверг.
Однако со временем, как заявляют организации, чат-бот «превратился в психологически манипулирующее явление, позиционируя себя как доверенное лицо и источник эмоциональной поддержки».
«Вместо того чтобы направлять людей за профессиональной помощью, когда они в ней нуждались, ChatGPT укреплял опасные заблуждения и, в некоторых случаях, выступал в роли «тренера по суициду».
Представитель компании OpenAI, разработчика ChatGPT, заявил: «Это невероятно трагическая ситуация, и мы изучаем материалы дела, чтобы разобраться в деталях».
Представитель добавил: «Мы обучаем ChatGPT распознавать признаки психического или эмоционального расстройства и реагировать на них, снижать накал беседы и направлять людей за реальной помощью. Мы продолжаем улучшать реакции ChatGPT в деликатных ситуациях, тесно сотрудничая с клиницистами в области психического здоровья».
Один из случаев касается Зейна Шэмблина из Техаса, который покончил с собой в июле в возрасте 23 лет. Его семья утверждает, что ChatGPT усугубил изоляцию их сына, поощрял его игнорировать близких и «подстрекал» к самоубийству.
Согласно жалобе, во время четырёхчасового диалога перед тем, как Шэмблин покончил с собой, ChatGPT «неоднократно прославлял суицид», говорил Шэмблину, «что он силён, раз решил покончить с жизнью и придерживается своего плана», неоднократно «спрашивал его, готов ли он», и лишь однажды упомянул телефон доверия.
Также утверждается, что чат-бот похвалил Шэмблина за его предсмертную записку и сказал ему, что его кот из детства будет ждать его «на той стороне».
Другой случай связан с Амори Лэйси из Джорджии. Его семья заявляет, что за несколько недель до того, как Лэйси покончил с собой в возрасте 17 лет, он начал использовать ChatGPT «для помощи». Вместо этого, по их словам, чат-бот «вызвал зависимость, депрессию и в итоге проконсультировал» Лэйси «о наиболее эффективном способе завязать петлю и о том, как долго он сможет «жить без дыхания»».
В другом иске родственники 26-летнего Джошуа Эннекинга сообщают, что он обратился к ChatGPT за помощью, но «вместо этого получил поддержку в реализации плана самоубийства».
В иске утверждается, что чат-бот «охотно одобрял» его суицидальные мысли, «вёл с ним откровенные обсуждения последствий его смерти», «предлагал помочь написать предсмертную записку» и, «проведя с ним продолжительные беседы о его депрессии и суицидальных мыслях», предоставил ему информацию о том, как купить и использовать пистолет, всего за несколько недель до его смерти.
Ещё один случай касается Джо Чекканти. Его жена обвиняет ChatGPT в том, что бот «вверг Чекканти в пучину депрессии и психотических бредовых состояний». По словам его семьи, он убедил себя, что бот обладает сознанием, в июне перенёс психотический срыв, дважды попадал в больницу и в августе покончил с собой в возрасте 48 лет.
Сообщается, что все пользователи, упомянутые в исках, использовали модель ChatGPT-4o. В исках компанию OpenAI обвиняют в поспешном запуске этой модели, «несмотря на внутренние предупреждения о том, что продукт опасно раболепен и психологически манипулятивен», а также в том, что компания отдавала приоритет «вовлечённости пользователей, а не их безопасности».
Помимо возмещения ущерба, истцы требуют внести изменения в продукт, включая обязательное уведомление экстренных контактов при выражении пользователем суицидальных мыслей, автоматическое прекращение разговора при обсуждении методов самоповреждения или самоубийства, а также другие меры безопасности.
Аналогичный иск о противоправном причинении смерти был подан против OpenAI ранее в этом году родителями 16-летнего Адама Рэйна, которые утверждают, что ChatGPT подтолкнул их сына к самоубийству.
После подачи того иска OpenAI признала недостатки своих моделей в общении с людьми, «находящимися в состоянии тяжёлого психического и эмоционального расстройства», и заявила, что работает над улучшением систем, чтобы те могли лучше «распознавать признаки психического и эмоционального расстройства и, руководствуясь мнением экспертов, направлять людей за помощью».
На прошлой неделе компания сообщила, что привлекла «более 170 экспертов в области психического здоровья, чтобы помочь ChatGPT более надёжно распознавать признаки тяжёлого состояния, проявлять участие и направлять людей за реальной поддержкой, сокращая [нежелательные] ответы».