專為 AI 推論時代而生

ASUS AI POD 搭載 NVIDIA GB300 NVL72

ASUS AI POD 搭載 NVIDIA GB300 NVL72,在液冷機櫃級平台中結合 72 個 Blackwell Ultra GPU 和 36 個 Grace™ CPU,旨在將 AI 工廠擴展至前所未有的水平。此平台專為測試時間擴充和進階 AI 推論而打造,可提供驅動次世代生成式 AI、大型語言模型 (LLM) 和科學突破所需的運算密度和效率。
資料中心伺服器機櫃,標題為「專為 AI 推論時代而生」,突顯華碩和 NVIDIA 的 AI 基礎架構解決方案

NVIDIA Blackwell Ultra GPU 突破

NVIDIA GB300 Grace Blackwell Ultra Superchips 在由 10TB/s 互連技術連接的雙光罩極限晶片上,封裝了 2080 億個電晶體。它擁有 288GB 的 HBM3e 記憶體,AI 運算能力比 NVIDIA Blackwell GPU 高 1.5 倍,可實現更大的內容關聯視窗、更快的推論速度和突破性的可擴充性——為次世代 AI 模型提供比 NVIDIA Hopper 平台高達 50 倍的推論效能。
XA GB721-E2 提供無縫的 GPU 對 GPU 通訊和加速的資料移動,以建構統一的高效能結構。這些技術共同提供快速、高效且可靠的連線能力,為 AI 超級運算基礎架構釋放可擴充的效能。
GPU 元件近照,展示適用於 AI 工作負載的先進運算能力 GPU 元件近照,展示適用於 AI 工作負載的先進運算能力

第五代 NVIDIA NVLink™

驅動無縫的 GPU 對 GPU 通訊,釋放 AI 推論效能的新境界。
裝滿華碩伺服器的資料中心機櫃,專為 AI 訓練和推論最佳化。

NVIDIA Quantum-X800 InfiniBand /​
NVIDIA Spectrum-X™ Ethernet​

與 NVIDIA ConnectX®-8 SuperNIC​™​ 配對,提供同級最佳的 RDMA,實現最高的 AI 工作負載效率。
NVIDIA NVLink 交換器和網路技術,可加速資料傳輸量。 NVIDIA NVLink 交換器和網路技術,可加速資料傳輸量。

NVIDIA® BlueField®-3​

透過雲端網路和敏捷的可組合式儲存,改變基礎架構。

加速上市的完整解決方案

除了全面的硬體,華碩還針對 ASUS AI POD 提供完整的軟體、儲存、網路、散熱和管理服務套件。這種全方位的方法可簡化營運、協助快速部署,並讓組織能夠加速 AI 創新,縮短上市時間。

為工作負載最佳化的儲存解決方案

ASUS AI POD 整合全快閃儲存以實現高效能、具成本效益的混合式儲存以實現可擴充的容量,以及從邊緣到雲端的企業級彈性,專為 HPC 和 AI 資料驅動的工作負載進行最佳化,並提供適合各種應用和平台的企業儲存解決方案。
  • 專為 AI 訓練工作負載最佳化的高容量儲存伺服器

    全快閃
    熱層儲存

    AI / HPC

    RS501A-E12-RS12U​

    進一步瞭解
  • 專為 HPC 和推論任務設計的平衡儲存系統。

    混合式
    冷層儲存

    AI / HPC

    OJ340A-RS60​

    進一步瞭解
  • 支援多機櫃 AI 部署的可擴充儲存解決方案

    快閃與混合式
    統一儲存

    企業虛擬化、資料庫

    VS320D-RS26U + JBOD

    進一步瞭解
  • 適用於各種企業 AI 應用的精巧儲存系統。

    混合式
    統一儲存

    企業資料備份、監控

    VS320D-RS12U + JBOD

    進一步瞭解

最大化效率,最小化熱量

液冷架構

NVIDIA GB300 Grace Blackwell Ultra Superchip 在由 10TB/s 互連技術連接的雙光罩極限晶片上,封裝了 2080 億個電晶體。它擁有 288GB 的 HBM3e 記憶體,AI 運算能力比 NVIDIA Blackwell GPU 高 1.5 倍,可實現更大的內容關聯視窗、更快的推論速度和突破性的可擴充性。NVIDIA GB300 NVL72 為次世代 AI 模型提供比 NVIDIA Hopper 平台高達 50 倍的推論效能。
  • 伺服器散熱系統剖面圖,展示最大化效率和最小化熱量

    液對氣解決方案

    適合設施緊湊的小型資料中心。
    旨在滿足現有氣冷資料中心的需求,並可輕鬆與當前基礎架構整合。
    非常適合尋求立即實施和部署的企業。

  • 採用最佳化氣流和先進散熱設計的華碩機櫃伺服器

    液對液解決方案

    適合具有高工作負載的大規模、廣泛基礎架構。
    提供長期的低 PUE,並隨著時間推移維持能源效率。
    降低總體擁有成本 (TCO),實現最大價值和符合成本效益的營運。

經驗證的拓撲
適用於可擴充的 AI 基礎架構

ASUS AI POD 搭載 NVIDIA GB300 NVL72,採用經驗證的參考架構來簡化網路拓撲部署,確保可預測的效能和簡化的擴充。
更多服務 向右箭頭
  • 帶有向上箭頭和齒輪的長條圖圖示,代表可預測的效能

    可預測的效能

    為要求嚴苛的 AI 工作負載確保頻寬和低延遲

  • 網路中連接節點的圖示,代表簡化的整合

    簡化的擴充

    經驗證的設計確保從機櫃到叢集的順暢擴展

  • 連接到階層線路的齒輪圖示,代表部署與可擴充性

    部署效率

    參考架構可加速設定並降低複雜性

工程師在伺服器機櫃上設定 AI 基礎架構系統。

加速您的上市時間

華碩自有軟體與控制器

NVIDIA NVLink 交換器具有 144 個連接埠,交換容量為 14.4 TB/s,允許九個交換器在單一 NVLink 網域內與 72 個 NVIDIA Blackwell Ultra GPU 上的 NVLink 連接埠互連。
  • 用於伺服器監控和 AI 管理的 ASUS Control Center (ACC) 軟體介面

    ASUS Control Center (ACC)

    用於監控和控制華碩伺服器的集中式 IT 管理軟體

    • Power Master – 資料中心的有效能源控制
    • 輕鬆搜尋和控制您的裝置
    • 輕鬆快速地增強資訊安全
  • 什麼是 ASUS AI POD 搭載 NVIDIA GB300 NVL72?
    什麼是 ASUS AI POD 搭載 NVIDIA GB300 NVL72? ASUS AI POD 搭載 NVIDIA GB300 NVL72 是一款機櫃級 AI 基礎架構解決方案,整合了 72 個 NVIDIA Blackwell Ultra GPU 和 36 個 NVIDIA Grace CPU,可為大規模 LLM 推論、訓練和 AI 推論提供強大動力。