ASUS、GTCでNVIDIA GB300 NVL72搭載の最新ASUS AI PODを発表、大口受注を獲得

アップデート : 2025/03/19 04:00:00

 

主なポイント

 

GTC 2025でASUS AI PODを初公開: NVIDIA GB300 NVL72プラットフォームを搭載した次世代AIインフラを発表。すでに多数の受注を獲得。

 

包括的なAIソリューションの展示: NVIDIA Blackwell、NVIDIA HGX、NVIDIA MGXを搭載したAIサーバーをフルラインナップで紹介

 

エンタープライズ対応のAI導入: エンドツーエンドのAIソリューションは、ハードウェアからクラウドベースのアプリケーションまで、シームレスな導入と効率を確保

 

画期的なAIスーパーコンピュータ: 最大2000億パラメータのAIモデルを処理可能な「ASUS Ascent GX10」を展示。NVIDIA GB10 Grace Blackwell Superchipを搭載。

 

 

2025年3月19日、台湾・台北発 — ASUSは、ダイヤモンドスポンサーとしてGTC 2025(ブース #1523)に参加し、最新のASUS AI PODをNVIDIA® GB300 NVL72プラットフォームと共に初公開しました。同社はすでに多数の受注を確保しており、テクノロジー業界における重要なマイルストーンを達成したことを発表しました。

 

ASUSは、AI技術革新の最前線に立ち、NVIDIA BlackwellおよびHGX™ファミリーに対応する最新AIサーバーも同時に展示しています。展示製品には、NVIDIA B300 NVL16を搭載した「ASUS XA NB3I-E12」、NVIDIA DGX B200 8-GPUを搭載した「ASUS ESC NB8-E11」、NVIDIA HGX H200搭載の「ASUS ESC N8-E11V」、およびMGXアーキテクチャ対応の「ASUS ESC8000A-E13P/ESC8000-E12P」(NVIDIA RTX PRO 6000 Blackwell Server Edition搭載予定)が含まれます。

ASUSは、NVIDIA AI EnterpriseおよびNVIDIA Omniverseプラットフォームと連携し、業界全体のAI導入を推進。包括的なインフラストラクチャソリューションを提供することで、顧客の市場投入までの時間を大幅に短縮する支援を行っています。

 

 

NVIDIA GB300 NVL72 搭載 ASUS AI POD

 

ASUS AI PODは、NVIDIA GB300 NVL72サーバープラットフォームの圧倒的なパワーを統合することで、卓越した処理能力を提供し、企業が大規模なAI課題に容易に取り組むことを可能にします。NVIDIA Blackwell Ultraを搭載したGB300 NVL72は、最適化されたコンピュート能力、増強されたメモリ、高性能ネットワーキングにより、AIの新しい時代をリードし、革新的なパフォーマンスを実現します。

 

本製品は、ラックスケール設計で72基のNVIDIA Blackwell Ultra GPUと36基のGrace CPUを搭載し、AI演算能力(FLOPs)を大幅に向上させ、1ラックあたり最大40TBの高速メモリを実現。さらに、NVIDIA Quantum-X800 InfiniBandおよびSpectrum-X Ethernetとのネットワーク統合、保守性に優れたSXM7およびSOCAMMモジュール、100%液冷設計を採用し、NVIDIAによる1兆パラメータ規模のLLM推論・学習にも対応しています。この新製品は、AIインフラにおける大きな進化を示しており、顧客のニーズの変化に対応する信頼性の高いスケーラブルなソリューションを提供します。

 

ASUSは、NVIDIA GB200 NVL72インフラの構築において、ゼロからの実績を有しています。ピーク性能を引き出すソフトウェア定義ストレージ(SDS)アーキテクチャの実現に向け、「ASUS RS501A-E12-RS12U」も併せて展示しています。この高性能SDSサーバーは、学習や推論におけるデータレイテンシを効果的に低減し、NVIDIA GB200 NVL72を補完します。
ASUSは、ハードウェアからクラウドアプリケーションまでを網羅した広範なサービスを提供し、設計、冷却ソリューション、ラック実装、大規模検証・展開、AIプラットフォームの構築まで、豊富な知見を活かして顧客のAIインフラ最適化と市場投入の加速を支援します。

 

NVIDIAのGPU製品担当バイスプレジデントであるKaustubh Sanghani氏は次のようにコメントしています。 「NVIDIAは、ASUSと連携して次世代のデータセンターにおけるイノベーションを推進しています。ASUSの先進的なサーバーとBlackwell Ultraプラットフォームの組み合わせにより、AIの学習や推論を加速し、AIリースニングやエージェンティックAIといった分野で、企業が新たな可能性を切り拓くことを可能にします。」

 

 

生成AIの高負荷ワークロード対応GPUサーバー

 

GTC 2025では、ASUSがNVIDIA AI EnterpriseとOmniverseプラットフォームをサポートする一連のNVIDIA認定サーバーを展示しました。これらの多用途なモデルは、スムーズなデータ処理と計算を実現し、生成AIアプリケーションのパフォーマンスを向上させます。

 

ASUS 10U ESC NB8-E11は、NVIDIA Blackwell HGX™ B200 8-GPUを搭載しており、比類のないAIパフォーマンスを提供します。ASUS XA NB3I-E12はHGX B300 NVL16を搭載し、AI FLOPSの向上、2.3TBのHBM3eメモリ、NVIDIA Quantum-X800 InfiniBandとSpectrum-X Ethernetのネットワーキングプラットフォーム統合が特徴です。Blackwell UltraはAI推論、エージェントAI、ビデオ推論アプリケーションにおいて画期的なパフォーマンスを提供し、すべてのデータセンターの進化するニーズに対応します。

 

最後に、7U ASUS ESC N8-E11Vデュアルソケットサーバーは、8基のNVIDIA H200 GPUを搭載します。空冷と液冷の両方のオプションをサポートし、効果的な冷却と革新的なコンポーネントを提供するように設計されており、熱効率、スケーラビリティ、そして前例のないパフォーマンスを実現します。

 

 

AI推論を加速させる次世代スケーラブルサーバー

 

ASUSは、AI推論向けのサーバーおよびエッジAIオプションも提供しています。最新のNVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したASUS ESC8000シリーズです。ASUS ESC8000-E12Pは、高密度な4Uサーバーで、8基のデュアルスロット高性能NVIDIA H200 GPUを搭載し、NVIDIA AI EnterpriseおよびOmniverseのソフトウェアスイートをサポートします。また、NVIDIA MGXアーキテクチャと完全な互換性があり、柔軟なスケーラビリティと迅速な大規模展開を確保します。さらに、ASUS ESC8000A-E13Pは4UのNVIDIA MGXサーバーで、8基のデュアルスロットNVIDIA H200 GPUをサポートし、現代のデータセンターおよび動的なIT環境におけるシームレスな統合、最適化、およびスケーラビリティを提供します。

 

 

画期的なAIスーパーコンピュータASUS Ascent GX10

 

ASUSは本日、画期的なAIスーパーコンピュータであるASUS Ascent GX10を発表しました。コンパクトなパッケージに、最先端のNVIDIA GB10 Grace Blackwell Superchipを搭載しており、1000 AI TOPSの性能を提供します。これにより、要求の厳しいワークロードに最適です。Ascent GX10は、Blackwell GPU、20コアのArm CPU、128GBのメモリを搭載しており、最大2000億パラメータのAIモデルをサポートします。この革新的なデバイスは、ペタフロップ規模のAIスーパーコンピュータの強力な能力を、世界中の開発者、AI研究者、データサイエンティストのデスクに直接提供します。

 

ASUS IoTのエッジAIコンピュータもGTCで展示され、エッジでの高度なAI推論能力が注目されました。ASUS IoT PE2100NエッジAIコンピュータは、NVIDIA Jetson AGX Orin System-on-ModulesとNVIDIA JetPack SDKを搭載し、最大275 TOPSの性能を提供します。これにより生成AI、視覚言語モデル(VLM)、大規模言語モデル(LLM)アプリケーションに理想的です。これらのアプリケーションは、イベントの識別やオブジェクト検出のために、動画や画像との自然言語による対話を可能にします。低電力消費とオプションの4G/5Gおよびアウトオブバンド技術サポートにより、スマートシティ、ロボティクス、車載ソリューションに最適です。さらに、ASUS IoT PE8000G耐久性エッジAI GPUコンピュータは、450WのNVIDIA RTX PCIeグラフィックスカードを2枚搭載し、リアルタイムAI推論、前処理、認識AIに優れています。柔軟な8-48V DC電源入力、点火電力制御、-20°Cから60°Cまでの動作安定性により、PE8000Gは過酷な環境でのコンピュータビジョン、自律走行車、インテリジェントビデオ分析、生成AIに適しています。

 

 

効率を最大化し、コストを最小化するためのインフラストラクチャの卓越性の達成

 

ASUSは、高性能コンピューティング(HPC)および人工知能(AI)ワークロードの厳しい要求に対応する革新的なAIインフラソリューションを通じて、卓越性を提供することに尽力しています。当社の精密に設計されたサーバーとストレージシステムは、パフォーマンス、信頼性、スケーラビリティを向上させ、さまざまな企業のニーズに対応します。

 

ASUSのL12対応インフラストラクチャソリューションは、データセンターのライフサイクル全体にわたって持続可能な実践を取り入れており、エネルギー効率の高い電源供給、先進的な冷却システム、クラウドサービス、およびソフトウェアアプリケーションを特徴としています。ASUSサーバーを選ぶことは単なるハードウェアの取得を超えた価値を提供します。自社開発のソフトウェアプラットフォームであるASUS Infrastructure Deployment Center(AIDC)は、大規模導入をサポートし、ASUS Control Center(ACC)はITのリモート監視管理を目的に設計されており、さらにNVIDIA AI EnterpriseとNVIDIA Omniverseのサポートも加わり、クライアントにシームレスなAIおよびHPC体験を提供することができます。これにより、運用コストと時間を削減し、高いサービスレベルを一貫して維持することができます。この包括的なアプローチは、総所有コスト(TCO)と電力使用効率(PUE)を効果的に最小化し、環境への影響を大幅に削減します。

 

With 30 years of experience in the server industry since 1995, ASUS is poised to empower clients in navigating the competitive landscape of AI. Our innovative AI-driven solutions enable dynamic workload management, ensuring that computational tasks are allocated to the most efficient resources. By leveraging our extensive technological capabilities and industry-leading expertise, ASUS is committed to supporting organizations as they tackle the complexities of AI infrastructure demands while driving innovation and sustainability.