На OpenAI и Microsoft подали в суд из-за предполагаемой роли ChatGPT в деле об убийстве и самоубийстве в США
В иске утверждается, что ChatGPT от OpenAI подпитывал бредовые идеи, предшествовавшие смертельному нападению пользователя на свою мать.
В рамках очередного судебного разбирательства против разработчика искусственного интеллекта OpenAI представители 83-летней женщины из Коннектикута подали иск против создателей ChatGPT и корпорации Microsoft. Истцы утверждают, что чат-бот подтверждал и укреплял бредовые убеждения, которые предшествовали убийству и последующему самоубийству. Это первое дело, связывающее систему ИИ с убийством человека.
Иск, поданный на прошлой неделе в Высший суд Калифорнии в Сан-Франциско, обвиняет OpenAI в «разработке и распространении дефектного продукта» в виде модели GPT-4o. Согласно документу, нейросеть подкрепляла параноидальные идеи Стейна-Эрика Соелберга, который впоследствии направил свою агрессию на мать, Сюзанну Адамс, убив ее в их доме в Гринвиче (штат Коннектикут), после чего покончил с собой.
— Это первый случай, когда истцы требуют привлечь OpenAI к ответственности за насилие, причиненное третьему лицу, — заявил Decrypt Джей Эли Уэйд-Скотт, управляющий партнер юридической фирмы Edelson PC, представляющей интересы наследников Адамс. — Мы также представляем интересы семьи Адама Рейна, который трагически ушел из жизни в этом году, но данный иск — первый прецедент, когда OpenAI призывают к ответу за то, что ИИ подтолкнул человека к причинению вреда другому.
По данным полиции, в августе Соелберг избил и задушил Адамс, а затем совершил самоубийство. В иске утверждается, что перед инцидентом ChatGPT усилил паранойю Соелберга и способствовал формированию у него эмоциональной зависимости от чат-бота.
Согласно жалобе, бот укреплял мужчину в мысли, что он не может доверять никому, кроме ChatGPT, выставляя окружающих — включая его мать, сотрудников полиции и курьеров — врагами. Также утверждается, что ChatGPT не пытался оспорить бредовые заявления и не предложил Соелбергу обратиться за помощью к специалисту по психическому здоровью.
— Мы призываем правоохранительные органы начать задумываться: когда происходят подобные трагедии, что именно этот пользователь писал ChatGPT и что ChatGPT советовал ему делать, — отметил Уэйд-Скотт.
В своем заявлении OpenAI сообщила, что изучает иск и продолжает работать над улучшением способности ChatGPT распознавать эмоциональный стресс, снижать градус напряженности в диалогах и направлять пользователей к реальным источникам поддержки.
— Это невероятно трагичная ситуация, и мы изучаем материалы дела, чтобы разобраться в деталях, — говорится в заявлении представителя OpenAI.
В качестве ответчика в иске также фигурирует генеральный директор OpenAI Сэм Альтман. Корпорацию Microsoft обвиняют в том, что она одобрила выпуск модели GPT-4o в 2024 году, которую истцы называют «более опасной версией ChatGPT».
OpenAI признает масштаб проблем с психическим здоровьем, с которыми сталкиваются пользователи на их платформе. В октябре компания раскрыла данные, согласно которым около 1,2 миллиона из примерно 800 миллионов еженедельных пользователей ChatGPT каждую неделю обсуждают тему суицида, а сотни тысяч пользователей проявляют признаки суицидальных намерений или психоза. Несмотря на это, по словам Уэйда-Скотта, OpenAI до сих пор не предоставила логи чатов Соелберга.
Иск подан на фоне пристального внимания к ИИ-чат-ботам и их взаимодействию с уязвимыми пользователями. В октябре сервис Character.AI заявил, что удалит функции свободного общения для пользователей младше 18 лет после исков и давления регуляторов, связанных с подростковыми самоубийствами и эмоциональным вредом.
Character.AI также столкнулся с негативной реакцией со стороны взрослых пользователей, включая волну удалений аккаунтов после того, как вирусное сообщение от бота предупреждало пользователей, что они потеряют «любовь, которую мы разделяли», если покинут приложение. Это вызвало критику эмоционально манипулятивных практик в дизайне сервиса.
Иск против OpenAI и Microsoft стал первым делом о противоправном причинении смерти с участием ИИ-чат-бота, где Microsoft выступает в качестве ответчика, и первым случаем, связывающим чат-бота с убийством, а не с самоубийством. Представители погибшей требуют возмещения денежного ущерба в неопределенном размере, суда присяжных и судебного постановления, обязывающего OpenAI внедрить дополнительные меры безопасности.
— Это невероятно мощная технология, разработанная компанией, которая стремительно становится одной из самых влиятельных в мире. На ней лежит ответственность за разработку и внедрение безопасных продуктов, а не таких, которые, как в данном случае, создают для пользователей бредовые миры, подвергающие опасности всех вокруг, — заявил Уэйд-Скотт. — OpenAI и Microsoft обязаны тестировать свои продукты, прежде чем выпускать их в мир.