Серверы HPE ProLiant Compute DL384 Gen12
HPE ProLiant DL384 Gen12 — специализированный сервер на чипах NVIDIA GH200 для ИИ
Сервер HPE ProLiant DL384 Gen12 представляет собой узкоспециализированную и инновационную платформу, разработанную в тесном партнерстве с NVIDIA для задач нового поколения в области искусственного интеллекта и ускоренных вычислений. Это первый стоечный сервер HPE, построенный на архитектуре суперчипа NVIDIA GH200 Grace Hopper, который принципиально отличается от классических x86-серверов с отдельными CPU и GPU. DL384 Gen12 создан для максимально эффективного выполнения рабочих нагрузок вывода (инференса) и тонкой настройки гигантских языковых и генеративных моделей, где ключевым фактором является объем сверхбыстрой объединенной памяти. В его основе лежат два суперчипа NVIDIA GH200 в конфигурации NVL2, каждый из которых объединяет на одном модуле процессор на архитектуре ARM и графический ускоритель. Это позволяет устранить традиционные узкие места в обмене данными между CPU и GPU, обеспечивая беспрецедентную пропускную способность.
Ключевые особенности и архитектурные преимущества сервера
- Революционная архитектура на суперчипах: в основе — два модуля NVIDIA GH200 NVL2, каждый из которых интегрирует процессор Grace и GPU Hopper, предлагая до 8 петафлопс производительности ИИ в одном узле и обеспечивая когерентную память между CPU и GPU.
- Гигантский объем высокоскоростной памяти: объединенный быстрый доступ к памяти объемом до 1.2 ТБ (включая память GPU HBM и системную память CPU) позволяет загружать и обрабатывать исключительно большие модели и наборы данных, не прибегая к медленному обмену с дисками.
- Выдающаяся производительность для вывода ИИ: архитектура GH200 NVL2 обеспечивает до 3.5 раз больше памяти GPU и в 3 раза большую пропускную способность, чем отдельный GPU NVIDIA H100, что напрямую ускоряет инференс и снижает его стоимость.
- Высокопроизводительная связь: два суперчипа в сервере соединены через интерконнект NVLink с высокой пропускной способностью, позволяя рассматривать их как единый мощный вычислительный ресурс для масштабирования моделей в рамках одного узла.
- Оптимизация для генеративного ИИ и RAG: сервер специально спроектирован для эффективной работы со смешанными рабочими нагрузками, включая извлечение данных и их последующую генерацию (RAG — Retrieval-Augmented Generation), что является ключевым для корпоративного внедрения ИИ.
- Поддержка высокоскоростных сетей: совместимость с адаптерами NVIDIA InfiniBand и Ethernet (включая BlueField DPU) обеспечивает минимальные задержки в кластерных развертываниях, необходимых для распределенного обучения и выполнения моделей.
- Снижение сложности и TCO: возможность запускать более крупные модели на меньшем количестве физических серверов уменьшает затраты на инфраструктуру, энергопотребление и управление, повышая общую окупаемость инвестиций в ИИ.

