
OpenAI представила две модели искусственного интеллекта с открытым исходным кодом
06.08.2025, 5:19, Технологии
Теги: Бизнес, Работа
OpenAI выпустила две открытые языковые модели, которые обеспечивают производительность, соответствующую ее коммерческим предложениям, при работе на потребительском оборудовании.
Модель gpt-oss-120b требует одного графического процессора емкостью 80 ГБ, а gpt-oss-20b работает на устройствах всего с 16 ГБ памяти.
ИИ, доступные под лицензией Apache 2.0, достигают почти паритета с o4-mini от OpenAI по интеллектуальным бенчмаркам. Версия со 120 миллиардами параметров активирует только 5,1 миллиарда параметров на токен через свою архитектуру смеси экспертов, в то время как модель с 20 миллиардами параметров активирует 3,6 миллиарда. Оба обрабатывают длину контекста до 128 000 токенов — так же, как и GPT-4o.
Тот факт, что они выпускаются под этой конкретной лицензией, имеет большое значение. Это означает, что любой может использовать, модифицировать и получать прибыль от этих моделей без ограничений. Это включает в себя всех, от вас до конкурентов OpenAI, таких как китайский стартап DeepSeek.
Релиз происходит на фоне растущих спекуляций о скором появлении GPT-5 и усиления конкуренции в пространстве искусственного интеллекта с открытым исходным кодом. Модели OSS являются последними открытыми языковыми моделями OpenAI со времен GPT-2 в 2019 году.
На самом деле нет даты выпуска GPT-5, но Сэм Альтман намекнул, что это может произойти раньше, чем позже.
— У нас есть много нового для вас в течение следующих нескольких дней, — написал он в Твиттере, пообещав «большое обновление в конце этой недели».
Модели с открытым исходным кодом, которые сегодня отброшены, очень мощные. «Эти модели превосходят открытые модели аналогичного размера в задачах рассуждения, демонстрируют широкие возможности использования инструментов и оптимизированы для эффективного развертывания на потребительском оборудовании», — говорится в заявлении OpenAI. Компания обучала их с помощью обучения с подкреплением и методов из своей o3 и других передовых систем.
На соревнованиях по программированию Codeforces gpt-oss-120b набрал рейтинг Elo 2622 с инструментами и 2463 без, превзойдя рейтинг o4-mini 2719 и приблизившись к рейтингу o3 2706. Модель достигла точности 96,6% на математических соревнованиях AIME 2024 по сравнению с 87,3% у o4-mini и достигла 57,6% на оценке HealthBench, превзойдя результат o3 в 50,1%.
Меньший по размеру gpt-oss-20b соответствовал или превосходил o3-mini в этих тестах, несмотря на свои размеры. Он набрал 2516 баллов Эло по версии Codeforces с инструментами, 95,2% на AIME 2024 и 42,5% по HealthBench — и все это при соблюдении ограничений памяти, которые сделали бы его жизнеспособным для развертывания на периферии.
Обе модели поддерживают три уровня усилий на обоснование — низкий, средний и высокий, — которые обменивают задержку на производительность. Разработчики могут настроить эти параметры с помощью одного предложения в системном сообщении. Модели были обучены с использованием процессов, аналогичных o4-mini, включая контролируемую тонкую настройку и то, что OpenAI описал как «этап RL с высокой производительностью».
Но не думайте, что только потому, что любой может модифицировать эти модели по своему желанию, вам будет легко. OpenAI отфильтровывал определенные вредные данные, связанные с химическими, биологическими, радиологическими и ядерными угрозами, во время предварительного обучения. На этапе после обучения использовалось совещательное выравнивание и иерархия инструкций для обучения отказу от небезопасных подсказок и защите от немедленных инъекций.
Другими словами, OpenAI утверждает, что разработал свои модели так, чтобы сделать их настолько безопасными, что они не могут генерировать вредные реакции даже после модификаций.
Эрик Уоллес, эксперт по выравниванию OpenAI, сообщил, что компания провела беспрецедентное тестирование безопасности перед выпуском.
— Мы точно настроили модели, чтобы намеренно максимизировать их био- и кибервозможности, — написал Уоллес на X. Команда курировала предметно-ориентированные данные для биологии и обучала модели в средах кодирования для решения задач захвата флага. — Сегодня мы выпускаем gpt-oss-120b и gpt-oss-20b — два открытых LLM, которые обеспечивают высокую производительность и эффективное использование агентных инструментов. Перед выпуском мы провели первый в своем роде анализ безопасности.
Состязательно настроенные версии прошли оценку трех независимых экспертных групп. «По нашим оценкам рисков, наша вредоносная система gpt-oss уступает OpenAI o3, модели ниже уровня готовности Highability», — заявил Уоллес. Тестирование показало, что даже при надежной тонкой настройке с использованием обучающего стека OpenAI модели не могут достичь опасных уровней возможностей в соответствии с Preparedness Framework компании.
Тем не менее, модели поддерживают неконтролируемую цепочку рассуждений, что, по словам OpenAI, имеет первостепенное значение для настороженного наблюдения за ИИ.
— Мы не осуществляли прямого надзора за CoT ни для одной из моделей gpt-oss, — заявили в компании. — Мы считаем, что это имеет решающее значение для мониторинга неправильного поведения, обмана и неправомерного использования моделей.
OpenAI скрывает полную цепочку мыслей на своих лучших моделях, чтобы не допустить повторения их результатов конкурентами и избежать еще одного успеха DeepSeek, которое теперь может произойти еще проще.
Модели доступны на Hugginface. Но, как мы уже говорили в начале, вам понадобится гигантский графический процессор с не менее 80 ГБ видеопамяти (например, Nvidia A100 за 17 тысяч долларов), чтобы запустить версию со 120 миллиардами параметров. Меньшая версия с 20 миллиардами параметров потребует не менее 16 ГБ видеопамяти (как Nvidia RTX 4090 за 3 тысячи долларов) на вашем графическом процессоре, что много, но также не так уж и безумно для оборудования потребительского уровня.