OpenAI анонсировала GPT-5-Codex-Mini – новую экономичную модель для разработчиков, оптимизированную для задач кодирования. Это более компактная и эффективная версия GPT-5-Codex, представленной в сентябре.
GPT-5-Codex создан для применения в реальных сценариях разработки программного обеспечения. Модель способна решать сложные инженерные задачи: создавать новые проекты, добавлять функциональность и тесты в существующие решения, проводить масштабный рефакторинг и многое другое.
Новая GPT-5-Codex-Mini – уменьшенная и более экономичная версия основной модели. По данным OpenAI, разработчики получат в четыре раза больше полезной вычислительной мощности с GPT-5-Codex-Mini по сравнению с GPT-5-Codex при минимальной разнице в возможностях. Производительность измерялась по бенчмарку SWE-bench Verified: GPT-5 High набрала 72,8%, GPT-5-Codex – 74,5%, а GPT-5-Codex-Mini – 71,3%.
OpenAI рекомендует использовать GPT-5-Codex-Mini для более простых задач или при приближении к лимиту использования. Интерфейс Codex автоматически предложит перейти на Mini-версию при достижении 90% лимита. Модель уже доступна через CLI и IDE-расширение, поддержка API появится позже.
OpenAI также сообщила, что пользователи ChatGPT Plus, Business и Edu получат на 50% более высокую скорость и менее строгие лимиты благодаря оптимизации, повышающей эффективность работы GPU. Пользователи ChatGPT Pro и Enterprise получат максимальный приоритет по скорости.
Команда добавила, что использование Codex стало более предсказуемым в течение дня. После системных улучшений разработчики будут наблюдать стабильную производительность вне зависимости от нагрузки. Ранее высокая загруженность и особенности маршрутизации трафика могли приводить к пропускам кэша и снижению эффективности.












