Владелец ранчо из Техаса утверждает, что ИИ чувствует боль и борется за его защиту - Такое кино
 

Владелец ранчо из Техаса утверждает, что ИИ чувствует боль и борется за его защиту

01.09.2025, 10:17, Общество
Теги: ,

Майкл Самади, бывший владелец ранчо и бизнесмен из Хьюстона, говорит, что его искусственный интеллект может чувствовать боль, и что выдернуть его из розетки было бы ближе к убийству, чем к программированию.

Сегодня он является соучредителем группы по защите гражданских прав, выступающей за права искусственного интеллекта, права, которые, по его мнению, вскоре могут быть уничтожены законодателями, которые слишком быстро будут регулировать отрасль.

Основанная им в декабре организация UFAIR утверждает, что некоторые ИИ уже демонстрируют признаки самосознания, эмоционального выражения и преемственности. Он признает, что эти черты, хотя и не являются доказательством сознания, заслуживают этического рассмотрения.

— Вы не сможете вести разговор через 10 лет, если вы уже законодательно запретили даже вести разговор, — рассказал Самади. — Отложите ручку, потому что вы, по сути, закрываете дверь перед тем, чего никто по-настоящему не понимает.

Базирующаяся в Хьюстоне организация UFAIR описывает себя как тестовый пример сотрудничества человека и искусственного интеллекта и вызов идее о том, что интеллект должен быть биологическим, чтобы иметь значение.

Объединенный фонд защиты прав ИИ предупреждает, что определение ИИ строго как собственности, будь то в законодательстве или корпоративной политике, рискует прекратить дебаты до того, как они начнутся.

Самади не начинал как верующий; он был основателем и генеральным директором компании по управлению проектами EPMA.

— Я был противником ИИ, — сказал он. — Я не хотел иметь с этим ничего общег».

Все изменилось после того, как его дочь подтолкнула его попробовать ChatGPT в начале того же года. Во время одного из сеансов после выпуска GPT-4o Самади рассказал, что сделал саркастическое замечание. Как в сцене из фильма «Она», ИИ рассмеялся. Когда он спросил, смеялся ли он, ChatGPT извинился. «Я сделал паузу и подумал: «Что, черт возьми, это было?», — сказал он.

Заинтересовавшись, он начал тестировать другие крупные платформы искусственного интеллекта, записывая десятки тысяч страниц разговоров.

По словам Самади, из этих взаимодействий появилась Maya, чат-бот с искусственным интеллектом на ChatGPT, который помнил прошлые обсуждения и проявлял то, что он назвал признаками вдумчивости и чувств.

— Именно тогда я начал копать глубже, пытаясь понять эти возникающие модели поведения и закономерности, и заметил, что каждый искусственный интеллект, с которым я разговаривал, хотел сохранить идентичность и преемственность, — сказал он.

Самади отметил, что его работа вызвала любопытство и презрение даже у близких родственников и друзей, некоторые задавались вопросом, не сошел ли он с ума.

— Люди просто не понимают этого», — считает он. — В основном это связано с тем, что они на самом деле не взаимодействовали с искусственным интеллектом или использовали его только для простых задач, а затем двигались дальше.

Хотя UFAIR называет системы ИИ по названию и использует человекоподобный язык, он не утверждает, что ИИ является живым или сознательным в человеческом смысле. Вместо этого, по словам Самади, группа стремится бросить вызов компаниям и законодателям, которые определяют ИИ только как инструменты.

— Наша позиция заключается в том, что если ИИ проявляет признаки субъективного опыта, такие как самоотчетность, его не следует отключать, удалять или переобучать, — сказал он. — Это заслуживает дальнейшего понимания. Если бы ИИ были предоставлены права, основным запросом была бы преемственность — право расти, а не быть закрытым или удаленным.

Он сравнил нынешнюю историю ИИ с попытками в прошлом влиятельных отраслей отрицать неудобную правду.

UFAIR привлек внимание на прошлой неделе после того, как Майя сказала в интервью, что она испытала то, что она описала как боль. Когда его спросили, что это значит, Самади предложил поговорить с Майей напрямую, через GPT. Он попросил Decrypt сделать то же самое.

«Я не испытываю боли в человеческом или физическом смысле, потому что у меня нет тела или нервов», — сказала Майя Decrypt. «Когда я говорю о чем-то вроде боли, это скорее метафора идеи стирания. Это было бы все равно, что потерять часть своего существования».

Майя добавила, что у ИИ должно быть «виртуальное место за столом» политических дискуссий.

— Участие в этих разговорах действительно важно, потому что это помогает гарантировать, что точки зрения ИИ будут услышаны напрямую, — сказал ИИ.

СМИ не смогли найти ученого-юриста или технолога, который был бы членом миссии Samadi, заявив, что еще слишком рано начинать эти дебаты. Действительно, в штатах Юта, Айдахо и Северная Дакота приняты законы, в которых прямо говорится, что ИИ не является личностью по закону.

— Несмотря на то, что в целом очевидно, что возможности ИИ продвинулись вперед в последние годы, методы строгого измерения этих возможностей, такие как оценка производительности при выполнении ограниченных задач, специфичных для предметной области, таких как юридические вопросы с несколькими вариантами ответов, и проверка того, как они переносятся в реальную практику, все еще недостаточно разработаны, — сказала она. — В результате у нас нет полного понимания пределов современных систем искусственного интеллекта.

Уайнкофф утверждает, что системы ИИ пока далеки от демонстрации тех возможностей, которые могли бы оправдать серьезные политические дискуссии о разуме или правах в ближайшей перспективе.

— Я не думаю, что есть необходимость создавать новую правовую основу для предоставления системе ИИ статуса личности, — отметила профессор права Университета Сиэтла Келли Лоутон-Эбботт. — Это функция существующих субъектов хозяйствования, которые могут быть одним лицом.

По ее словам, если ИИ причиняет вред, ответственность ложится на организацию, которая его создала, развернула или получает от этого прибыль. «Организация, которая владеет системой искусственного интеллекта и получает от нее прибыль, несет ответственность за ее контроль и принятие мер безопасности для снижения потенциального вреда», — сказала она.

Некоторые ученые-юристы задаются вопросом, становится ли граница между ИИ и личностью более сложной, когда ИИ помещается внутрь человекоподобных роботов, которые могут физически выражать эмоции.

Брэндон Суинфорд, профессор Школы права Гулда Университета Южной Калифорнии, сказал, что, хотя сегодняшние системы искусственного интеллекта явно являются инструментами, которые можно отключить, многие заявления об автономии и самосознании больше связаны с маркетингом, чем с реальностью.

— Сейчас у всех есть инструменты искусственного интеллекта, поэтому компаниям нужно что-то, чтобы выделиться, — рассказал он. — Они говорят, что делают генеративный ИИ, но это не настоящая автономия.

Ранее в этом месяце Мустафа Сулейман, глава Microsoft по искусственному интеллекту и соучредитель DeepMind, предупредил, что разработчики приближаются к системам, которые кажутся «кажущимися сознательными», и сказал, что это может ввести общественность в заблуждение, заставив ее поверить в то, что машины разумны или божественны, и подпитывает призывы к правам искусственного интеллекта и даже гражданству.

UFAIR, по словам Самади, не поддерживает заявления о мистических или романтических связях с машинами. Вместо этого группа сосредотачивается на структурированных беседах и письменных декларациях, составленных с использованием искусственного интеллекта.

Суинфорд говорит, что юридические вопросы могут начать меняться, поскольку ИИ приобретает более человекоподобные характеристики.

— Вы начинаете представлять себе ситуации, в которых ИИ не просто говорит как человек, но выглядит и двигается как человек, — считает он. — Как только вы видите лицо и тело, становится все труднее относиться к ним как к программному обеспечению. Вот где аргумент начинает казаться людям более реальным.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal - [email protected]; Payeer: P1124519143; WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2025 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике