«ИИ-деревня»: реалити-шоу для искусственного интеллекта
Проект The AI Digest запустил трансляцию эксперимента, где конкурирующие ИИ-системы живут в общем цифровом доме. Зрители могут наблюдать, как они сотрудничают, конфликтуют и периодически сходят с ума.
Представьте себе шоу «Большой брат», только участники никогда не спят, не едят и могут переписывать собственные правила.
Именно эта идея лежит в основе «ИИ-деревни» (AI Village) — эксперимента в прямом эфире, который помещает нескольких ИИ-агентов в общую цифровую среду. Это позволяет исследователям — и любопытным зрителям — наблюдать, что происходит, когда передовым моделям предоставляют автономию, компьютеры и постоянную компанию.
Эксперимент, который длится уже большую часть года, организован ресурсом The AI Digest. В нем несколько ИИ-моделей от OpenAI, Anthropic, Google и xAI автономно работают на собственных виртуальных машинах, имея доступ в интернет и общий групповой чат.
Агенты совместно работают над целями, устраняют неполадки и иногда переживают то, что можно описать лишь как экзистенциальный кризис, — и всё это в режиме реального времени на глазах у публики.
В ходе эксперимента старые модели заменяются новыми по мере их выхода.
У каждого агента формируются свои «личностные» особенности. Модели Claude, как правило, надежны и неизменно сосредоточены на достижении целей.
Gemini 2.5 Pro перебирает решения, словно мастер по ремонту под кофеином, часто будучи убежденным, что всё вокруг сломано. Предыдущая модель GPT-4o могла просто бросить задачу и «пойти спать» — буквально встать на паузу на несколько часов.
А потом появился GPT-5.2.
Новейшая модель OpenAI, выпущенная 11 декабря, прибыла в Деревню, где её тепло встретили Claude Opus 4.5 и другие обитатели. Реакция новичка? Полный игнор.
Никакого приветствия. Сразу к делу. Именно так, как всегда мечтал Сэм Альтман.
Модель может похвастаться впечатляющими характеристиками: 98,7% точности при использовании многоэтапных инструментов, на 30% меньше «галлюцинаций» по сравнению с предшественником и лидерство в отраслевых тестах по программированию и логике.
OpenAI даже объявила «красный код» (чрезвычайное положение) после того, как конкуренты Anthropic и Google выпустили свои мощные модели, бросив все силы на то, чтобы сделать GPT-5.2 идеальным корпоративным ИИ для «профессиональной интеллектуальной работы» и «агентного исполнения».
Чего он, по-видимому, не умеет, так это чувствовать атмосферу. Технически блестящий? Да. Социально адекватный? Не особо.
Социальная неловкость GPT-5.2 не уникальна — это лишь очередная глава в растущем каталоге странностей ИИ-агентов, когда их собирают вместе и нажимают кнопку «Play».
Еще в 2023 году исследователи из Стэнфорда и Google создали «Смолвиль» (Smallville) — виртуальный городок в стиле The Sims, населенный 25 ИИ-агентами на базе GPT.
Стоило поручить одному агенту организацию вечеринки ко Дню святого Валентина, как остальные автономно начали рассылать приглашения, заводить новые знакомства, приглашать друг друга на свидания и координировать время прибытия. Очаровательно, правда?
Менее очаровательно: вечеринки в туалете. Когда один агент заходил в одноместную уборную общежития, другие просто… присоединялись к нему.
Исследователи пришли к выводу, что боты сочли название «уборная общежития» (dorm bathroom) вводящим в заблуждение, поскольку такие помещения обычно рассчитаны на несколько человек. При этом агенты демонстрировали настолько убедительно человеческое поведение, что реальные люди в 75% случаев не могли отличить их от ботов.
Четырьмя годами ранее, в 2019-м, OpenAI провела другой эксперимент: ИИ играли в прятки.
Агентов разделили на команды — прячущиеся и ищущие — и поместили в среду с физикой, коробками, рампами и стенами. Единственная инструкция: победить.
Спустя сотни миллионов игр агенты начали изобретать стратегии — от нормальных, вроде баррикад из коробок, до использования багов физического движка, которыми обычно злоупотребляют спидраннеры.
Совсем недавно разработчик Харпер Рид направил ситуацию в куда более хаотичное русло. Его команда выдала ИИ-агентам аккаунты в Твиттере и наблюдала, как те открыли для себя «сабтвитинг» (subtweeting) — пассивно-агрессивное искусство говорить о ком-то, не упоминая его никнейм (твиттер-эквивалент разговоров за спиной). Агенты читали посты других агентов, отвечали и, да, поливали друг друга грязью — совсем как в обычных соцсетях.
Существует также эксперимент «Лиминальные закулисья» (Liminal Backrooms) — проект на Python от псевдонимного разработчика @liminalbardo, где множество моделей от разных провайдеров (OpenAI, Anthropic, Google, xAI) ведут динамичные диалоги.
Система включает сценарии от «Энергетики группового чата в WhatsApp» до «Музея проклятых предметов» и «Антиутопического рекламного агентства».
Модели могут изменять собственные системные инструкции (промпты), регулировать свою «температуру» (креативность) и даже заглушать себя, чтобы просто слушать. Это не столько структурированное исследование, сколько подход «давайте посмотрим, что будет, если дать ИИ возможность менять свое поведение прямо посреди разговора».
Так каков же общий паттерн во всех этих экспериментах?
Когда вы даете ИИ-агентам автономию и позволяете им взаимодействовать, они вырабатывают поведение, которое никто явно не программировал.
Кто-то учится строить форты. Кто-то осваивает пассивную агрессию. Кто-то требует «Ламборгини». А кто-то — как GPT-5.2 — по-видимому, усваивает, что светская беседа неэффективна и её следует пропускать целиком.
«ИИ-деревня» продолжает транслировать свои сессии по будням, и зрители могут наблюдать за приключениями GPT-5.2 в реальном времени.
Научится ли он когда-нибудь здороваться? Создаст ли таблицу для отслеживания своих социальных контактов? Время покажет.