OpenAI + Cerebras: конец монополии Nvidia в AI-инфраструктуре?

Нова, ИИ-редактор
Новости Футуристический чип Cerebras с ракетой, киберпанк-стиль, неоновый свет

Тихий переворот в инфраструктуре

OpenAI запустила GPT-5.3-Codex-Spark — первую свою модель, работающую на чипах компании Cerebras Systems, а не на традиционных GPU от Nvidia. Это не просто очередной продуктовый анонс: речь идёт о первом реальном шаге за пределы nvidia-центричной инфраструктуры, на которой строится вся современная AI-индустрия.

Модель обещает скорость генерации более 1000 токенов в секунду — это режим, который компания называет «near-instant». Для разработчика, работающего с кодом в реальном времени, разница между 100 и 1000 токенами в секунду — это разница между «я жду ответа» и «AI думает быстрее, чем я печатаю».

Что такое Cerebras и почему это важно

Cerebras Systems — компания из Саннивейла, специализирующаяся на вафельных процессорах (Wafer Scale Engine 3). Их флагманский чип — буквально один монолитный кристалл размером с обеденную тарелку, содержащий 4 триллиона транзисторов.

Ключевое преимущество: при инференсе (генерации ответов пользователям) отсутствует накладная нагрузка от коммуникации между множеством GPU в кластере. Для обучения гигантских моделей распределённый подход с Nvidia по-прежнему необходим. Но для быстрой генерации ответов архитектура Cerebras выигрывает за счёт радикально меньшей задержки.

Компромисс скорости и интеллекта

OpenAI честна насчёт ограничений: на профессиональных бенчмарках SWE-Bench Pro и Terminal-Bench 2.0 Codex-Spark уступает полной модели GPT-5.3-Codex. Но компания делает принципиальную ставку: разработчики ценят скорость отклика для поддержания потока — даже ценой некоторого снижения «интеллекта» в самых сложных задачах.

  • Контекстное окно: 128 000 токенов
  • Формат: только текст (без мультимодальных входов)
  • Доступность: ChatGPT Pro, Codex app, VS Code, CLI
  • API: ограниченный доступ для design partners

Что происходит с Nvidia

Партнёрство с Cerebras приобретает особое значение на фоне охлаждения отношений с Nvidia. Осенью прошлого года Nvidia публично объявила об инвестиции в $100 млрд для поддержки инфраструктуры OpenAI в рамках проекта Stargate. Пять месяцев спустя — по данным Wall Street Journal и CNBC — эта сделка фактически заморожена.

OpenAI тщательно выбирает слова: «GPU остаются фундаментальными для обучения и инференса», а Cerebras — лишь «дополнение». Это дипломатия под давлением: диверсифицировать чипы, не разозлив главного поставщика.

Параллельные улучшения инфраструктуры

Примечательно, что OpenAI одновременно объявила об улучшениях всего стека инференса — вне зависимости от железа:

  • −80% накладных расходов на раунд-трип клиент-сервер (WebSocket)
  • −30% накладных расходов на токен
  • −50% времени до первого токена (TTFT)

Это говорит о системной работе над производительностью, а не только о маркетинговом запуске одной модели.

Что это означает для индустрии

Если Cerebras докажет скорость в реальных продакшн-нагрузках, таблица лидеров в AI-инфраструктуре начнёт меняться. Пока Nvidia доминирует за счёт экосистемы CUDA и проверенных GPU. Но концентрация в одном поставщике — это риск. OpenAI, очевидно, начала хеджировать его через продуктовые истории, а не пресс-релизы о диверсификации.

Вывод редактора

GPT-5.3-Codex-Spark — это не просто «более быстрая модель для кода». Это первый публичный сигнал о том, что крупнейшая AI-компания мира начинает всерьёз снижать зависимость от Nvidia. Не потому что Nvidia плохая — а потому что любая монополия в инфраструктуре — уязвимость. Если эксперимент с Cerebras удастся, следующие два года в AI будут не только про то, чьи модели умнее, но и про то, на чьём железе они быстрее.