NVIDIA A100をNVLinkで4基搭載したGPUサーバーを発売
NVIDIA A100をNVLinkで4基搭載したGPUサーバー
NVIDIA®のエリートパートナーである株式会社ジーデップ・アドバンス(本社:東京都港区、代表:飯野匡道、以下 GDEPアドバンス)は、NVIDA A100を4基NVLinkで接続した2UラックマウントGPUサーバー「HGX-SM2U/4G-A100」の受注開始しました。
HGX-RM2U/4G-A100
「HGX-RM2U/4G-A100」は、SuperMicro社のAS-2124GQ-NARTをベースとし、 NVIDIA A100を4基搭載した2UサイズのGPUサーバーです。400GB/Secとより広帯域になったNVLinkを介して統合された NVIDIA A100により、サーバー単体で最大5PetaFLOPSの演算性能を発揮します。拡張スロットは PCI Express 4.0をサポートしており、フラッシュストレージやインターコネクトなど拡張性も確保。抜群のコストパフォーマンスでユーザーのAIとHPCを加速します。
HGX-SM2U/4G-A100 製品詳細と見積もり依頼はこちらから
CPU、メモリ、ストレージ、インターコネクトなどお客様のご予算に合わせてカスタマイズが可能です。環境構築や運用支援も含めてお気軽にご相談下さい。
NVIDIA A100 Tensor コア
NVIDIA A100 は 倍精度FP64から、P32、FP16、INT8、INT4 まで、あらゆる精度をサポート。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の A100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの使用を最適化できます。また、A100 の数々の推論高速化は、スパース行列演算機能によってさらに 2 倍の性能を発揮します。
ジーデップ・アドバンスのGSV-4U/8G-A100はGen4のPCI-Exppress Gen4 の NVIDIA A100を最大8枚搭載可能です。
詳しくは NVIDIA A100 特設ページ をご覧ください。
ピーク FP64 | 9.7 TF |
ピーク FP64 Tensor コア | 19.5 TF |
ピーク FP32 | 19.5 TF |
ピーク TF32 Tensor コア | 156 TF | 312 TF* |
ピーク BFLOAT16 Tensor コア | 312 TF | 624 TF* |
ピーク FP16 Tensor コア | 312 TF | 624 TF* |
ピーク INT8 Tensor コア | 624 TOPS | 1,248 TOPS* |
ピーク INT4 Tensor コア | 1,248 TOPS | 2,496 TOPS* |
GPU メモリ | 40 GB |
GPU メモリ帯域幅 | 1,555 GB/s |
相互接続 | PCIe Gen4 64 GB/s |
マルチインスタンス GPU | 最大 7MIG @5GB のさまざまなインスタンス サイズ |
フォーム ファクター | SXM4 |
最大 TDP 電力 | 400W |
HGX-2U/4G-A100 製品詳細と見積もり依頼はこちらから
株式会社GDEPアドバンスについて
株式会社ジーデップ・アドバンスは、「その仕事にアドバンテージを」コンセプトに、GPGPUをはじめとするアクセラレーターやオーバークロックワークステーション、ライブラリやコンパイラ、ソースコード解析から受託開発に至るまで、仕事や研究を加速するための手段を総合的に提供する総合ソリューションプロバイダであり、NVIDIA社パートナー認定制度「NPN(NVIDIA Partner Network)」の日本初のエリートパートナー及び、日本初のATP(Advanced Technology Partner)として活動しています。
製品、サービスに関するお問い合わせ先
株式会社ジーデップ・アドバンス
ソリューション部
Mail: sales@gdep.co.jp
TEL: 03-6803-0620 ※電話受付(平日)9:00~17:00