NVIDIA H100 搭載 NVIDIA DGX H100

NVIDIA DGX H100

NVIDIA H100 GPU搭載 第4世代DGXシステム「NVIDIA DGX H100」

NVIDIA DGX H100 は 2022年3月のNVIDIA主催のイベントGTC2022Springで発表のあった、世界で初めてNVIDIA H100 Tensor コアGPU を搭載したシステムです。8基のNVIDIA H100 GPUは前世代の1.5倍 7.2TB/Secとより広帯域になったNLSwitch x4で接続され、最大で32PetaFLOPSの演算性能を実現します。
※NVIDIA H100 についての詳しい説明はこちらをご覧ください。

さらに、NVIDIA ConnectX®-7 スマート ネットワーク インターフェイス カード(SmartNIC)とNVIDIA BlueField®-3 データ プロセシング ユニット(DPU)で6 倍のパフォーマンスと2 倍高速なネットワーキングを実現し、NVIDIA DGX SuperPOD 向けのハイスピード スケーラビリティを提供します。この次世代アーキテクチャは、自然言語処理やディープ ラーニングによるレコメンデーション モデルなど、大規模で複雑なAI ジョブに対応できるように強化されています。
 


 

多様な条件に適合するリーダーシップクラスのインフラ

企業や研究機関でAI を利用する際に重要なのは、パフォーマンスと機能だけではありません。組織のIT 要件と運用要件に適合することも重要です。NVIDIA DGX H100 は、オンプレミスに導入して直接管理できるほか、NVIDIA DGX 対応のデータセンターへのコロケーション、NVIDIA DGX Foundry でのレンタル、NVIDIA 認定のマネージド サービス プロバイダーを介した利用が可能です。また、DGX 対応のライフサイクル管理プログラムにより、最新のシステムの導入を維持するための予測性の高い財務モデルを利用できます。これを利用すると、忙しいIT スタッフの負担を増やすことなく、従来のIT インフラと同じように簡単にNVIDIA DGX H100 を活用、入手できるため、明日を待たずにすぐAI をビジネスに活用できます。
 

NVIDIA DGX SuperPOD へのスケールアウト

NVIDIA DGX H100 は、次世代 NVIDIA DGX POD および NVIDIA DGX SuperPOD といったAIデータセンター インフラストラクチャプラットフォームを構成することが可能です。
NVIDIA DGX SuperPODは、きわめて困難な AI およびハイパフォーマンス コンピューティング (HPC) ワークロードに対して、最高クラスのアクセラレーテッド インフラストラクチャと俊敏かつスケーラブルなパフォーマンスを提供し、業界で認められた結果をもたらします。


 

NVIDIA DGX H100 構成

◆ NVIDIA H100 GPU x8、合計 GPU メモリ 640GB
GPU あたり 12 NVIDIA® NVLinks®、GPU 間の双方向帯域幅 900GB/秒

◆ NVIDIA NVSWITCHES™ x4
7.2 テラバイト/秒の GPU 間双方向帯域幅 、前世代比 1.5 倍以上

◆ NVIDIA CONNECTX®-7 x8 および、NVIDIA BLUEFIELD® DPU 400Gb/秒 ネットワーク インターフェイス x2
ピーク時の双方向ネットワーク帯域幅 1TB/秒

◆ デュアル x86 CPU と 2TB システム メモリ
AI への依存が非常に高い仕事を可能にするパワフルな CPU

◆ 30TB NVME SSD
最高のパフォーマンスを実現するための高速ストレージ





NVIDIA DGX H100 仕様

GPU NVIDIA H100 Tensor Core GPU 80 GB x 8基
GPUメモリ Total 640 GB
パフォーマンス 32 petaFLOPS FP8
NVIDIA NV Switch数 4
CPU Dual x86
システムメモリ 2TB
ネットワーク 4 個の OSFP ポートで 8 基の
シングルポート ConnectX-7 へ接続
400Gb/s InfiniBand/Ethernet

2 基のデュアルポート NVIDIA
BlueField-3 DPU VPI
400Gb/s InfiniBand/Ethernet x1
200Gb/s InfiniBand/Ethernet x1

10Gb/s オンボード NIC(RJ45 付き)
50Gb/s Ethernet オプション NIC
ホスト ベースボード管理コントロー
ラー(BMC)(RJ45 付き)
2x NVIDIA BlueField-3 DPU BMC
(それぞれ RJ45 コネクタで接続)
ストレージ OS: 1.92 TB M.2 NVMe E drives × 2
内部ストレージ:
30 TB (3.84 TB × 8)
U.2 NVMe drives
PSU 6 x 3.3Kw Rdundant
システム電力 10.2kw(TBD)
サイズ 353 x 447 x 844(mm)  RackUnits 8U
ソフトウェア DGX H100システムには、Ubuntu Linuxベースの DGXソフトウェアスタック
(DGX用に最適化されたすべての必要なパッケージとドライバー)
を含むDGX OSがプリインストールされています。
動作温度範囲 5℃~30℃

※仕様は予告なしに変更されることがあります。
※データシートはこちらから入手可能です。
 

導入のご相談はDGX国内累計販売実績No.1の株式会社ジーデップ・アドバンスまで

ジーデップ・アドバンスはDGXに対する豊富な実績から、NVIDIAのベストパートナーとして受賞されております。
また、DGXのソフトウェアスタックに標準採用されるBase Command オーケストレーションツールについても、そのポートフォリオのベースとなっている Bright Cluster Manager の代理店として
国内トップクラスの知見を有しています。DGX H100という最新で最強のツールをスムーズに導入して頂くために是非私達にお手伝いをさせて下さい。

 
 

ご購入前のお問い合わせ

trending_flat