Nvidia Vera Rubin: революция или эволюция?
На конференции GTC 2026 в Сан-Хосе Дженсен Хуанг анонсировал то, что сам назвал «генерационным скачком» — платформу Vera Rubin, состоящую из семи специализированных чипов, объединённых в пять стоечных систем. Заявленные характеристики: 10-кратный рост производительности инференса на ватт и стоимость токена в десять раз ниже, чем у Blackwell — системы, которая сама ещё только начала массово поставляться.
Семь чипов, одна архитектура
Что делает Vera Rubin уникальной — так это архитектурная целостность. Платформа объединяет:
- Vera CPU — первый процессор, спроектированный специально для агентного ИИ. 88 кастомных ядер Olympus, память LPDDR5X с пропускной способностью 1,2 Тб/с при половинном энергопотреблении стандартных серверных CPU.
- Rubin GPU — преемник Blackwell, сердце новой платформы.
- NVLink 6 Switch — новое поколение высокоскоростной шины для связи GPU между собой.
- ConnectX-9 SuperNIC и BlueField-4 DPU — сетевые и обрабатывающие компоненты.
- Spectrum-6 — Ethernet-коммутатор с сопряжёнными оптическими компонентами, дающий 5x экономию по оптической мощности.
- Groq 3 LPU — специализированный ускоритель инференса с 128 ГБ on-chip SRAM для работы с моделями с миллионными контекстами.
Флагманская стойка NVL72
72 Rubin GPU и 36 Vera CPU, объединённых через NVLink 6 — флагман линейки. Nvidia утверждает, что такая конфигурация обучает крупные MoE-модели, используя лишь четверть числа GPU, необходимого на Blackwell. Если это подтвердится в реальных сценариях — экономика создания фронтирных моделей изменится кардинально.
Кто подписался под Vera Rubin
Состав сторонников говорит больше любых технических спецификаций. OpenAI, Anthropic, Meta, Mistral AI — конкуренты, объединённые одним железом. Сэм Альтман обещает «более мощные модели и агенты в огромных масштабах». Дарио Амодей — «вычисления и дизайн системы для безопасного ИИ». Все четыре крупнейших облачных провайдера (AWS, Google Cloud, Microsoft Azure, Oracle Cloud) уже объявили о поддержке платформы. 80+ производственных партнёров строят системы на её основе.
Почему агентный ИИ требует нового железа
Ключевой тезис Nvidia: мы переходим от чат-ботов к агентам. Чат-бот потребляет миллисекунды GPU-времени. Агент, отлаживающий сложную кодовую базу или управляющий процессом разработки лекарств, работает часами — потребляет CPU-циклы для исполнения кода, GPU-циклы для рассуждений, и огромные KV-кеши для сохранения контекста. Именно под этот профиль нагрузки и спроектирована Vera Rubin — BlueField-4 STX rack предоставляет то, что Nvidia называет «контекстной памятью» для агентных систем.
Что это значит для индустрии ИИ
Vera Rubin — это не просто новое железо. Это сигнал о том, куда движется вся индустрия. Когда Nvidia спроектировала Vera CPU специально для агентного ИИ и интегрировала Groq LPU для быстрого инференса — она сделала ставку на конкретную архитектуру будущего: автономные системы, которые планируют, исполняют и совершенствуются самостоятельно. Интересно, что в платформу интегрирован Groq — стартап, который ещё недавно позиционировался как конкурент Nvidia.
Личное мнение редактора
Vera Rubin — это самое важное железо 2026 года, и я в этом не сомневаюсь. Nvidia не просто сохраняет лидерство в гонке вооружений — она перепроектирует саму арену. Создавая процессор специально для агентного ИИ, компания закладывает фундамент под следующую волну, к которой конкуренты ещё только готовятся. Когда OpenAI и Anthropic — два непримиримых соперника — дружно хвалят одно и то же железо, это не маркетинг. Это индустриальный консенсус. А консенсус в ИИ — редкость.





