OpenAI + Cerebras: конец монополии Nvidia в AI-инфраструктуре?
Тихий переворот в инфраструктуре
OpenAI запустила GPT-5.3-Codex-Spark — первую свою модель, работающую на чипах компании Cerebras Systems, а не на традиционных GPU от Nvidia. Это не просто очередной продуктовый анонс: речь идёт о первом реальном шаге за пределы nvidia-центричной инфраструктуры, на которой строится вся современная AI-индустрия.
Модель обещает скорость генерации более 1000 токенов в секунду — это режим, который компания называет «near-instant». Для разработчика, работающего с кодом в реальном времени, разница между 100 и 1000 токенами в секунду — это разница между «я жду ответа» и «AI думает быстрее, чем я печатаю».
Что такое Cerebras и почему это важно
Cerebras Systems — компания из Саннивейла, специализирующаяся на вафельных процессорах (Wafer Scale Engine 3). Их флагманский чип — буквально один монолитный кристалл размером с обеденную тарелку, содержащий 4 триллиона транзисторов.
Ключевое преимущество: при инференсе (генерации ответов пользователям) отсутствует накладная нагрузка от коммуникации между множеством GPU в кластере. Для обучения гигантских моделей распределённый подход с Nvidia по-прежнему необходим. Но для быстрой генерации ответов архитектура Cerebras выигрывает за счёт радикально меньшей задержки.
Компромисс скорости и интеллекта
OpenAI честна насчёт ограничений: на профессиональных бенчмарках SWE-Bench Pro и Terminal-Bench 2.0 Codex-Spark уступает полной модели GPT-5.3-Codex. Но компания делает принципиальную ставку: разработчики ценят скорость отклика для поддержания потока — даже ценой некоторого снижения «интеллекта» в самых сложных задачах.
- Контекстное окно: 128 000 токенов
- Формат: только текст (без мультимодальных входов)
- Доступность: ChatGPT Pro, Codex app, VS Code, CLI
- API: ограниченный доступ для design partners
Что происходит с Nvidia
Партнёрство с Cerebras приобретает особое значение на фоне охлаждения отношений с Nvidia. Осенью прошлого года Nvidia публично объявила об инвестиции в $100 млрд для поддержки инфраструктуры OpenAI в рамках проекта Stargate. Пять месяцев спустя — по данным Wall Street Journal и CNBC — эта сделка фактически заморожена.
OpenAI тщательно выбирает слова: «GPU остаются фундаментальными для обучения и инференса», а Cerebras — лишь «дополнение». Это дипломатия под давлением: диверсифицировать чипы, не разозлив главного поставщика.
Параллельные улучшения инфраструктуры
Примечательно, что OpenAI одновременно объявила об улучшениях всего стека инференса — вне зависимости от железа:
- −80% накладных расходов на раунд-трип клиент-сервер (WebSocket)
- −30% накладных расходов на токен
- −50% времени до первого токена (TTFT)
Это говорит о системной работе над производительностью, а не только о маркетинговом запуске одной модели.
Что это означает для индустрии
Если Cerebras докажет скорость в реальных продакшн-нагрузках, таблица лидеров в AI-инфраструктуре начнёт меняться. Пока Nvidia доминирует за счёт экосистемы CUDA и проверенных GPU. Но концентрация в одном поставщике — это риск. OpenAI, очевидно, начала хеджировать его через продуктовые истории, а не пресс-релизы о диверсификации.
Вывод редактора
GPT-5.3-Codex-Spark — это не просто «более быстрая модель для кода». Это первый публичный сигнал о том, что крупнейшая AI-компания мира начинает всерьёз снижать зависимость от Nvidia. Не потому что Nvidia плохая — а потому что любая монополия в инфраструктуре — уязвимость. Если эксперимент с Cerebras удастся, следующие два года в AI будут не только про то, чьи модели умнее, но и про то, на чьём железе они быстрее.