ASUS、HGX H100 8GPUサーバー「ESC N8-E11」を発表

アップデート : 2023/06/16 12:00:00

台北(台湾)、2023年6月9日 — ASUSは、最も先進的なHGX H100 8GPUのAIサーバー、「ESC N8-E11」を発表しました。同時に、包括的なPCI Express®(PCIe®)GPUサーバーポートフォリオのESC8000およびESC4000シリーズを発表しました。これは、より高いCPUおよびGPU TDPをサポートするインテル®およびAMD®プラットフォームによって強化されており、AIおよびデータサイエンスの開発を加速させます。

ASUSは、ASUSサーバービジネスユニット、Taiwan Web Service (TWS)、ASUS Cloud(すべてASUSグループの一部)からなる独自の全方位型リソースを持つ数少ない高性能コンピューティング(HPC)ソリューションプロバイダです。このため、ASUSは、自社でAIサーバーの設計、データセンターのインフラストラクチャ、AIソフトウェアの開発能力を提供することに加えて、産業用ハードウェアとソフトウェアのパートナーによる多様なエコシステムを提供することができるようになりました。

 

先進的で強力なAIサーバーによりデータセンターのPUEを削減

ハイエンドのASUS ESC N8-E11は、8つのNVIDIA H100 Tensor Core GPUを組み込んだNVIDIA® HGX H100 AIサーバーで、大規模なAIトレーニングモデルや高性能コンピューティング(HPC)の時間を短縮するために設計されました。第4世代インテル Xeon®スケーラブル・プロセッサーを搭載したこの7Uデュアルソケットサーバーは、最大8つのNICをサポートする専用の1GPU・1NICトポロジーで特別に設計されており、計算集約型のワークロードに最高のスループットを提供します。モジュール設計によりケーブルの使用量が大幅に削減されます。その結果、システムの組み立てにかかる時間が短縮され、ケーブルのルーティングが不要となり、エアフローが詰まるリスクが低減され、熱最適化を実現します。

ESC N8-E11は、第4世代のNVLinkとNVSwitchテクノロジーに加え、GPUDirect® RDMAと、NVIDIA AIプラットフォームのソフトウェア層であるNVIDIA AI Enterpriseに対応するNVIDIA Magnum IO™ GPUDirect Storageを強化したNVIDIA ConnectX-7 SmartNICを搭載しており、AIとデータサイエンスの開発を加速させます。熱効率、拡張性、前例のないパフォーマンスを実現するためにGPUとCPUの2段階のスレッドで設計されており、データセンター全体の電力使用効率(PUE)を大幅に削減します。

 

小規模なエンタープライズから大規模な統合AIトレーニングクラスターまで、あらゆる用途に対応するPCIe GPUサーバー

ASUS NVIDIA認定GPUサーバーのラインナップは、インテルとAMDのプラットフォームをベースにした4~8つのGPUを搭載した構成となっています。選び抜かれたサーバーはNVIDIA OVXに最適化されており、レンダリングやデジタルツイン用途において卓越しています。

ASUS ESC8000-E11は、エンタープライズAIインフラストラクチャの要求に合わせて構築された8スロットのH100 PCIe GPUサーバーで、業界最先端のGPU、高速GPUインターコネクト、広帯域幅のファブリックにより、これまでにないパフォーマンスを実現します。NVIDIA NVLink Bridge(ブリッジ)により最大8つのGPUをサポートしており、パフォーマンスの拡張性と帯域幅の増加を強化し、成長するAIと高性能コンピューティング(HPC)ワークロードに対応することができます。

 

製品と価格について

ASUS ESC N8-E11の販売情報に関して、日本国内のASUS代理店までお問い合わせください。