NVIDIA H100: PCIe, NVL, SXM и DGX — в чём разница и что выбрать

NVIDIA H100: PCIe, NVL, SXM и DGX — в чём разница и что выбрать

На фото: ускоритель NVIDIA H100 в дата-центровом исполнении (серверный класс, не геймерская видеокарта).

Если вы изучаете видеокарту NVIDIA H100, то почти наверняка сталкивались с непонятными обозначениями: PCIe, NVL, SXM, DGX. На первый взгляд кажется, что это разные модели — но чаще всего это разные форм-факторы и способы интеграции одного семейства ускорителей.

В этой статье разберёмся:

  • что означают эти модификации простыми словами
  • чем они реально отличаются
  • для каких задач подходит каждая
  • и как выбрать H100 так, чтобы не переплатить и не упереться в ограничения инфраструктуры



Что такое NVIDIA H100 (коротко)

Picture (1).png

Picture (2).png

Picture (3).png

На фото: схема архитектуры Hopper и спецификация H100 (ключевые параметры: память HBM3, пропускная способность, форм-факторы).

NVIDIA H100 — дата-центровый GPU архитектуры Hopper для задач искусственного интеллекта и HPC. Он ценится не за «игровые FPS», а за способность стабильно ускорять:

  • обучение нейросетей (training)
  • инференс (inference) больших моделей
  • высокопроизводительные вычисления (HPC)

Ключевое, что важно покупателю:

  • память HBM3: у H100 есть версии 80 GB и 94 GB (в зависимости от варианта)
  • пропускная способность памяти: у разных вариантов заметно отличается (это влияет на реальные сценарии)
  • разная интеграция: PCIe проще внедрять, SXM даёт максимум связности между GPU через NVLink/NVSwitch



PCIe, NVL, SXM, DGX — в чём вообще разница

Picture (4).png

Picture (5).png

На фото: схемы соединения GPU через PCIe, NVLink и NVSwitch — то, что определяет масштабирование и скорость обмена между ускорителями.

Проще всего представить так:

H100 — это “двигатель”, а PCIe / NVL / SXM / DGX — это “как и куда этот двигатель установлен”.

  • PCIe — стандартная «карта» в PCIe-слот сервера (проще всего внедрить).
  • NVL — вариант для более эффективной работы в multi-GPU в PCIe-серверных системах, с фокусом на высокий объём/полосу памяти и межGPU-связь (часто 94 GB).
  • SXM — модульный формат для специализированных платформ (HGX/DGX), где GPU соединяются через NVLink/NVSwitch максимально быстро.
  • DGX — готовая система «под ключ», обычно с 8 GPU, сетями, охлаждением и софтом.



H100 PCIe — самый универсальный вариант

Picture (6).png

Picture (7).png

Picture (8).png

На фото: H100 PCIe — ускоритель в формате платы для установки в PCIe-слот сервера.

Что означает PCIe

PCIe — это стандартный интерфейс подключения ускорителя к серверу. H100 PCIe ставится в PCIe-слот (обычно Gen5), что делает его самым «понятным» вариантом для внедрения в существующую инфраструктуру.

Для каких задач подходит

  • инференс LLM/ML-моделей
  • продакшн-AI сервисы
  • пилотные проекты с 1–2 GPU на сервер
  • когда важна простота интеграции и скорость запуска

Что важно учесть

  • у PCIe-версии ниже потолок масштабирования по межGPU-обмену, чем у SXM/NVSwitch-платформ
  • производительность в рамках одного GPU отличная, но в «тяжёлом» training на много GPU SXM/HGX обычно эффективнее



H100 NVL — для высоконагруженного инференса и multi-GPU в PCIe-серверах

Picture (9).png

Picture (10).png

Picture (11).png

На фото: H100 NVL (обычно 94GB HBM3) и концепция NVLink-связи для эффективной работы в multi-GPU.

Что означает NVL

H100 NVL — это вариант, ориентированный на сценарии, где важны инференс больших моделей и масштабирование в PCIe-серверных системах, с акцентом на более ёмкую память (94 GB HBM3) и высокую полосу памяти.

Когда NVL уместнее, чем обычная PCIe

  • inference больших LLM, где память и пропускная способность критичны
  • серверы с несколькими GPU, где нужно уменьшить узкие места обмена/параллелизма
  • когда SXM-инфраструктура избыточна, но «обычной PCIe» уже мало

Нюансы

NVL — это не «магический x2» к мощности. Он раскрывается, когда вы реально упираетесь:

  • в объём/полосу памяти
  • в эффективность multi-GPU инференса



H100 SXM — максимум связности и эффективности для обучения и HPC

Picture (12).png

Picture (13).png

На фото: модуль H100 SXM и платформа HGX/NVSwitch — основа для 8-GPU узлов и кластеров.

Что означает SXM

SXM — модульный формат GPU, который работает в специализированных платформах (HGX/DGX). Главная ценность SXM — максимальная скорость обмена между GPU через NVLink/NVSwitch, что критично для обучения больших моделей и HPC.

Для каких задач SXM — лучший выбор

  • training больших нейросетей и LLM
  • multi-GPU workloads, где важна синхронизация
  • HPC/научные расчёты
  • проекты, где эффективность на 8 GPU важнее простоты интеграции

Минусы (честно)

  • нужен совместимый сервер/платформа (не «любой PCIe-сервер»)
  • выше требования к питанию/охлаждению
  • дороже входной порог, но часто выше итоговая эффективность на больших задачах



DGX H100 — готовая AI-платформа «под ключ»

Picture (14).png

Picture (15).png

Picture (16).png

На фото: NVIDIA DGX H100 — законченная система с 8 ускорителями H100 и инфраструктурой внутри.

Что такое DGX

DGX H100 — это готовый серверный комплекс NVIDIA, обычно с 8× H100 и общей GPU-памятью 640 GB (8×80 GB), с NVLink/NVSwitch-архитектурой, сетями и оптимизацией под NVIDIA-стек.

Для кого DGX — идеален

  • enterprise-компании, которым нужен быстрый запуск без «сборки из кубиков»
  • R&D-центры
  • проекты, где цена простоя выше разницы в стоимости

Почему DGX покупают даже дороже

Потому что он снижает риски:

  • совместимость железа/сети/охлаждения
  • стабильность под нагрузкой
  • предсказуемое масштабирование внутри узла



Сравнение всех модификаций H100

Picture (17).png

Picture (18).png

На фото: GPU-кластер в дата-центре — типовая среда, где раскрываются SXM/HGX/DGX решения.

Модификация

Где используется

Сильная сторона

Сложность внедрения

Типичные сценарии

H100 PCIe (80GB)

стандартные серверы

простота интеграции

низкая

inference, продакшн-AI, 1–2 GPU

H100 NVL (94GB)

PCIe-серверы (multi-GPU)

инференс больших моделей, память/полоса

средняя

high-load inference, multi-GPU inference

H100 SXM (80GB)

HGX/DGX-платформы

максимум межGPU-связи

высокая

training LLM, HPC

DGX H100 (8×H100)

готовая платформа

минимизация рисков, «под ключ»

минимальная для заказчика

enterprise AI, R&D




Как выбрать H100 под свою задачу

Picture (19).png

Picture (20).png

Picture (21).png

На фото: проектирование AI-инфраструктуры — этап, где правильный выбор форм-фактора экономит бюджет и сроки.

Ориентир, который работает в 90% случаев:

  • Нужно быстро внедрить 1–2 GPU в текущий сервер и запустить продакшн-инференс → берите H100 PCIe.
  • Нужно держать большие модели в памяти и масштабировать инференс в PCIe-сервере → смотрите H100 NVL 94GB.
  • Нужно эффективно обучать большие модели на 4–8 GPU (и дальше масштабировать кластер) → чаще всего нужен SXM (HGX/DGX-архитектура).
  • Нужно “без сюрпризов”: быстрый запуск, предсказуемая платформа, минимум интеграции → DGX H100.

Если сомневаетесь, задайте себе 2 вопроса:

  1. ваша задача — inference или training?
  2. планируется ли масштабирование до 4–8 GPU в ближайшие 6–12 месяцев?



Вывод

Picture (22).png

Picture (23).png

Picture (24).png

На фото: современный дата-центр с GPU-инфраструктурой — типичный контекст эксплуатации H100.

PCIe, NVL, SXM и DGX — это не “разные H100”, а разные способы использовать один класс ускорителя.
Правильный выбор форм-фактора:

  • снижает риск переплаты
  • ускоряет внедрение
  • повышает реальную эффективность на вашей нагрузке



FAQ: NVIDIA H100 — PCIe, NVL, SXM и DGX

Picture (25).png

Picture (26).png

Picture (27).png

На фото: серверная эксплуатация GPU — то, что важно после покупки: установка, настройка, стабильность.

❓ Что означают PCIe, NVL, SXM и DGX у NVIDIA H100?
Это форм-факторы/способы интеграции H100: PCIe — в стандартный слот, NVL — вариант для эффективного multi-GPU инференса (часто 94GB), SXM — модуль для платформ с NVSwitch, DGX — готовая система.

❓ H100 PCIe подходит для LLM?
Да, особенно для инференса и продакшн-сервисов. Для обучения больших LLM на много GPU обычно эффективнее SXM/HGX/DGX из-за межGPU-связности.

❓ Чем H100 NVL отличается от H100 PCIe?
NVL ориентирован на сценарии инференса больших моделей и multi-GPU в PCIe-системах и часто имеет 94GB HBM3 (против 80GB у многих PCIe-вариантов).

❓ Зачем SXM, если есть PCIe?
SXM раскрывается там, где важна скорость обмена между несколькими GPU (NVLink/NVSwitch) — это критично для обучения и масштабирования на 4–8 GPU.

❓ Что такое DGX H100 и кому он нужен?
DGX — это «под ключ»: 8×H100, NVSwitch, сети и оптимизации. Его берут, чтобы быстро запустить платформу и снизить интеграционные риски.

❓ У всех вариантов H100 одинаковая производительность?
Производительность одного GPU близка по классу, но итоговый результат сильно зависит от: памяти/полосы, межGPU-связи, платформы, охлаждения и ПО-стека.

Свяжитесь с нами

МОЖНО СВЯЗАТЬСЯ С НАМИ В УДОБНОМ
МЕССЕНДЖЕРЕ, ОТВЕТИМ СРАЗУ

Или позвоните по номеру:

+7 (800) 777-57-61

Читайте также

NVIDIA H800 — что это за ускоритель, чем отличается от H100 и почему его “нет” на официальном сайте
#NVIDIA H800
26.03.2026

NVIDIA H800 — что это за ускоритель, чем отличается от H100 и почему его “нет” на официальном сайте

В ассортименте серверных GPU NVIDIA иногда встречается особенная модель — NVIDIA H800. Это реальный GPU на архитектуре Hopper, близкий по сути к H100, но адаптированный под специфические требования рынков и экспортных ограничений.
Официальные артикулы NVIDIA GPU для ЦОД
#NVIDIA H200
26.03.2026

Официальные артикулы NVIDIA GPU для ЦОД

Ниже представлена полная таблица официальных артикулов графических ускорителей NVIDIA для дата-центров, включая H200, H100, A100 и другие модели.
OEM-ускорители NVIDIA: что это такое, чем они отличаются и когда это лучший выбор для AI-проектов
#OEM NVIDIA
26.03.2026

OEM-ускорители NVIDIA: что это такое, чем они отличаются и когда это лучший выбор для AI-проектов

В сегменте серверных GPU всё чаще встречается формулировка OEM-ускорители NVIDIA. Это не конкретная модель и не «альтернатива» оригиналу, а формат поставки и эксплуатации, который изначально создавался для дата-центров и корпоративных инфраструктур.
Официальные артикулы NVIDIA RTX GPU для ИИ и инференса
#NVIDIA RTX
26.03.2026

Официальные артикулы NVIDIA RTX GPU для ИИ и инференса

Ниже представлена полная таблица официальных артикулов графических ускорителей NVIDIA серии RTX и профессиональных PCIe-карт, подходящих для задач искусственного интеллекта и инференса.
Реальные проекты на NVIDIA H100: как компании используют ускорители в AI-инфраструктуре
#NVIDIA H100
26.03.2026

Реальные проекты на NVIDIA H100: как компании используют ускорители в AI-инфраструктуре

NVIDIA H100 — это ускоритель, который стал де-факто стандартом для крупных AI-проектов последних лет. Его используют не потому, что «он самый новый», а потому что он универсально закрывает ключевые задачи: обучение, fine-tuning и промышленный инференс.
PREV
NEXT