Nvidia DGX Station: суперкомпьютер с триллионом параметров — теперь на вашем столе
Суперкомпьютер под столом — это уже реальность
На конференции GTC 2026 в Сан-Хосе Nvidia объявила о продукте, который ещё пять лет назад казался бы фантастикой: настольная рабочая станция, способная запускать ИИ-модели с триллионом параметров — без облака, без дата-центра, прямо в вашем кабинете. DGX Station — это не просто мощный ПК. Это машина, которая пересматривает само понятие «персональный компьютер» в эпоху искусственного интеллекта.
Что внутри: цифры, которые перестраивают восприятие
DGX Station построен на новом чипе GB300 Grace Blackwell Ultra Desktop Superchip — гибриде 72-ядерного Grace CPU и Blackwell Ultra GPU, связанных высокоскоростным интерконнектом NVLink-C2C с пропускной способностью 1,8 ТБ/с. Это в семь раз быстрее PCIe Gen 6.
- 20 петафлопс вычислений — мощность, которая в 2018 году была бы в топ-10 мирового рейтинга суперкомпьютеров
- 748 ГБ единой когерентной памяти — достаточно, чтобы триллион-параметровые модели целиком помещались в RAM
- Полностью локальная работа без передачи данных в облако
Для контекста: суперкомпьютер Summit (Oak Ridge, 2018), лидер мирового рейтинга в то время, выдавал примерно в 10 раз больше — но занимал площадь двух баскетбольных площадок и потреблял мегаватты энергии. DGX Station — это десятая часть той мощи в корпусе, который подключается к обычной розетке.
Для кого и зачем: логика постоянных агентов
Nvidia создала DGX Station не просто как мощную рабочую станцию — а как ответ на фундаментальный сдвиг в том, как работает ИИ. Мы переходим от «спроси — получи ответ» к модели «агент, который работает непрерывно»: планирует, пишет код, принимает решения, исполняет задачи — 24/7.
Облачные GPU прекрасно справляются с пиковыми нагрузками. Но для агентов, которым нужна постоянная память, постоянное состояние и постоянный доступ к данным, аренда GPU в чужом дата-центре — архитектурно неверное решение. Latency, privacy, зависимость от соединения — всё это становится критичным, когда агент должен работать непрерывно с конфиденциальными корпоративными данными.
DGX Station — это «always-on» инфраструктура на вашей стороне. Машина под столом, которая никогда не засыпает.
Модели, которые она запускает
Nvidia позиционирует DGX Station как аппаратно-нейтральную платформу — «железная Швейцария» в мире конкурирующих моделей:
- OpenAI GPT-oss-120b
- Google Gemma 3
- Alibaba Qwen 3
- Mistral Large 3
- DeepSeek V3.2
- Собственные модели Nvidia Nemotron
Разработчики могут не только запускать, но и дообучать (fine-tune) эти модели локально. Благодаря архитектурной совместимости с серверными системами GB300 NVL72, код, написанный на DGX Station, переносится в дата-центр без переработки — от прототипа к продакшену без рефакторинга.
Первые покупатели рассказывают о применении
Среди первых клиентов — Snowflake (локальное тестирование фреймворка Arctic), EPRI (ИИ-прогноз погоды для энергосетей), Medivis (языковые модели в хирургических workflow), Microsoft Research и Корнелльский университет (обучение исследователей). Список показывает: это не игрушка для гиков, а рабочий инструмент для индустрий, где данные слишком чувствительны для облака.
Цена вопроса
Nvidia пока не раскрывает официальную цену, но по всем косвенным признакам — шестизначная сумма в долларах. Дорого? Безусловно. Но сравните с затратами на облачный inference триллион-параметровых моделей на горизонте 2-3 лет, добавьте стоимость data privacy compliance и latency-потери — и инвестиция начинает выглядеть иначе. Системы будут доступны для заказа уже сейчас, поставки — в ближайшие месяцы через ASUS, Dell, GIGABYTE, MSI, Supermicro.
Моё мнение
DGX Station — это не просто железо. Это тезис о том, как будет выглядеть ИИ-инфраструктура следующего десятилетия. Если агенты действительно станут основным способом взаимодействия с ИИ, то облачная модель с её latency, privacy-рисками и переменными затратами начнёт проигрывать локальным решениям для серьёзного использования. Nvidia ставит на это — и предлагает себя как единственного поставщика всего стека: от кремния до агентного фреймворка. Это классический платформенный захват, и судя по тому, сколько компаний уже подписалось — он работает.
Вывод
Граница между суперкомпьютером и рабочей станцией только что стала тоньше на порядок. DGX Station — это сигнал: будущее мощных ИИ-систем не обязательно в облаке. Иногда оно стоит прямо под вашим столом, потребляет электричество из розетки и никогда не засыпает.