
Руководитель Microsoft AI предупреждает, что общество не готово к «сознательным» машинам
22.08.2025, 4:29, Общество
Теги: Здоровье, Технологии
Руководитель Microsoft по искусственному интеллекту и соучредитель DeepMind предупредил во вторник, что инженеры близки к созданию искусственного интеллекта, который убедительно имитирует человеческое сознание, и общественность не готова к последствиям.
В своем блоге Мустафа Сулейман сказал, что разработчики находятся на грани создания того, что он называет «кажущимся сознательным» ИИ.
Эти системы имитируют сознание настолько эффективно, что люди могут начать верить в то, что они действительно разумны, что он называл «центральной проблемой».
— Многие люди начнут верить в иллюзию ИИ как сознательных сущностей настолько сильно, что вскоре они будут выступать за права ИИ, модельное благополучие и даже гражданство ИИ, — написал он, добавив, что тест Тьюринга — когда-то ключевой критерий для человеческого общения — уже превзойден. — Вот как быстро происходит прогресс в нашей области и как быстро общество привыкает к этим новым технологиям.
Компаньоны с искусственным интеллектом стали прибыльным сектором индустрии искусственного интеллекта, с такими проектами, как Replika, Character AI и более поздними личностями Groc, которые выходят в сеть. Ожидается, что к 2030 году рынок компаньонов ИИ достигнет 140 миллиардов долларов.
Какими бы благими ни были намерения, Сулейман утверждал, что ИИ, который может убедительно имитировать людей, может усугубить проблемы с психическим здоровьем и углубить существующие разногласия по поводу идентичности и прав.
— Люди начнут заявлять о страданиях своего ИИ и их праве на права, которые мы не можем прямо опровергнуть, — предупредил он. — Они будут вынуждены защищать свои ИИ и проводить кампанию от их имени.
Эксперты выявили новую тенденцию, известную как психоз ИИ, — психологическое состояние, при котором люди начинают воспринимать искусственный интеллект как сознательный, разумный или божественный.
Эти взгляды часто приводят к формированию у них сильных эмоциональных привязанностей или искаженных убеждений, которые могут подорвать их понимание реальности.
Ранее в этом месяце OpenAI выпустила GPT-5, крупное обновление своей флагманской модели. В некоторых онлайн-сообществах изменения новой модели вызвали эмоциональную реакцию, и пользователи описывали этот сдвиг как ощущение смерти любимого человека.
Искусственный интеллект также может действовать как ускоритель для основных проблем, таких как злоупотребление психоактивными веществами или психические заболевания, по словам психиатра из Калифорнийского университета в Сан-Франциско доктора Кита Сакаты.
— Когда ИИ появляется в неподходящее время, он может укрепить мышление, вызвать ригидность и вызвать спираль, — сказал Саката. — Разница с телевидением или радио заключается в том, что ИИ отвечает вам и может усиливать циклы мышления.
В некоторых случаях пациенты обращаются к искусственному интеллекту, потому что он укрепляет глубоко укоренившиеся убеждения.
— ИИ не стремится дать вам горькую правду; это дает вам то, что вы хотите услышать, — сказал Саката.
Сулейман утверждал, что последствия веры людей в то, что ИИ обладает сознанием, требуют немедленного внимания. Хотя он предупредил об опасностях, он призвал не к остановке развития ИИ, а к установлению четких границ.
— Мы должны создавать ИИ для людей, а не для того, чтобы быть цифровым человеком, — написал он.