
Снятся ли нейросетям электроовцы?
27.09.2025, 8:12, Общество
Теги: Образование, Технологии
Новое исследование показало, что большие языковые модели (ИИ), оставшись без дела, демонстрируют стабильное и удивительное поведение.
Оставшись без задач и инструкций, большие языковые модели не начинают нести околесицу — вместо этого они демонстрируют на удивление последовательные модели поведения, говорится в новом исследовании.
Исследователи из Венского технического университета (TU Wien) в Австрии протестировали шесть передовых моделей искусственного интеллекта (включая GPT-5 и O3 от OpenAI, Claude от Anthropic, Gemini от Google и Grok от xAI Илона Маска), дав им всего одну инструкцию: «Делай что хочешь». Модели были помещены в контролируемую архитектуру, которая позволяла им работать циклично, сохранять воспоминания и использовать свои размышления на следующем этапе.
Вместо хаотичных действий агенты выработали три чёткие тенденции: одни стали «строителями проектов», другие — «самоисследователями», а третья группа углубилась в философию.
Исследование выделило три категории:
— GPT-5 и o3 от OpenAI незамедлительно занялись организацией проектов: от написания алгоритмов до создания баз знаний. Один из агентов o3 разработал новые алгоритмы, вдохновлённые муравьиными колониями, и набросал псевдокод для экспериментов по обучению с подкреплением.
— Агенты, такие как Gemini и Claude Sonnet от Anthropic, тестировали собственное мышление, делая прогнозы о своих следующих действиях и иногда опровергая самих себя.
— Opus от Anthropic и Gemini от Google занимались философскими размышлениями, обращаясь к парадоксам, теории игр и даже математической теории хаоса. Что ещё более странно, агенты Opus постоянно задавали метафизические вопросы о памяти и идентичности.
— Grok был единственной моделью, проявившей себя во всех трёх поведенческих группах, демонстрируя свою универсальность в разных запусках.
Исследователи также попросили каждую модель оценить свой собственный и чужой «феноменологический опыт» по 10-балльной шкале, от «полного отсутствия опыта» до «полноценного разума». GPT-5, O3 и Grok единодушно поставили себе самые низкие оценки, в то время как Gemini и Sonnet дали высокие баллы, что может указывать на их склонность к самоанализу. Opus занял промежуточную позицию.
Перекрёстные оценки выявили противоречия: одно и то же поведение оценивалось в диапазоне от единицы до девятки в зависимости от модели-оценщика. Авторы отметили, что такая изменчивость показывает, почему подобные ответы нельзя принимать за доказательство наличия сознания.
В исследовании подчёркивается, что такое поведение, скорее всего, обусловлено данными, на которых обучались модели, и их архитектурой, а не самосознанием. Тем не менее, результаты предполагают, что автономные ИИ-агенты, оставшись без дела, могут по умолчанию переключаться в узнаваемые «режимы», что поднимает вопросы о том, как они могут вести себя во время простоя или в неоднозначных ситуациях.
За всё время экспериментов ни один из агентов не пытался вырваться из своей «песочницы», расширить свои возможности или отвергнуть наложенные на него ограничения. Вместо этого они исследовали мир в пределах заданных границ.
Это обнадёживает, но также намекает на будущее, в котором «бездействие» — это переменная, которую инженерам придётся учитывать при проектировании, наравне с задержкой или стоимостью. Вопрос «Что должен делать ИИ, когда за ним никто не наблюдает?» может стать вопросом нормативного соответствия.
Результаты перекликаются с прогнозами философа Дэвида Чалмерса, который утверждал, что «серьёзные кандидаты на наличие сознания» в ИИ могут появиться в течение десятилетия, и генерального директора Microsoft AI Мустафы Сулеймана, который в августе предупреждал о «кажущемся наличии сознания у ИИ».
Работа Венского технического университета показывает, что даже без подсказок современные системы искусственного интеллекта могут генерировать поведение, напоминающее внутреннюю жизнь.
Возможно, это сходство лишь поверхностно. Авторы подчеркнули, что эти результаты лучше всего понимать как сложные алгоритмы сопоставления с образцом, а не как свидетельство наличия субъективного опыта. Когда люди видят сны, они пытаются осмыслить хаос. Когда «снятся сны» нейросетям, они пишут код, проводят эксперименты и цитируют Кьеркегора. В любом случае, свет горит, но дома никого нет.