NVIDIA A100をNVLinkで4基搭載したGPUサーバーを発売

2020.08.17 プレスリリース

NVIDIA A100をNVLinkで4基搭載したGPUサーバー

NVIDIA®のエリートパートナーである株式会社ジーデップ・アドバンス(本社:東京都港区、代表:飯野匡道、以下 GDEPアドバンス)は、NVIDA A100を4基NVLinkで接続した2UラックマウントGPUサーバー「HGX-SM2U/4G-A100」の受注開始しました。

img

HGX-RM2U/4G-A100

「HGX-RM2U/4G-A100」は、SuperMicro社のAS-2124GQ-NARTをベースとし、 NVIDIA A100を4基搭載した2UサイズのGPUサーバーです。400GB/Secとより広帯域になったNVLinkを介して統合された NVIDIA A100により、サーバー単体で最大5PetaFLOPSの演算性能を発揮します。拡張スロットは PCI Express 4.0をサポートしており、フラッシュストレージやインターコネクトなど拡張性も確保。抜群のコストパフォーマンスでユーザーのAIとHPCを加速します。

HGX-SM2U/4G-A100 製品詳細と見積もり依頼はこちらから

CPU、メモリ、ストレージ、インターコネクトなどお客様のご予算に合わせてカスタマイズが可能です。環境構築や運用支援も含めてお気軽にご相談下さい。

NVIDIA A100 Tensor コア

NVIDIA A100 は 倍精度FP64から、P32、FP16、INT8、INT4 まで、あらゆる精度をサポート。 マルチインスタンス GPU (MIG) テクノロジでは、1 個の A100 GPU で複数の AI モデルを同時に運用できるため、計算リソースの使用を最適化できます。また、A100 の数々の推論高速化は、スパース行列演算機能によってさらに 2 倍の性能を発揮します。
ジーデップ・アドバンスのGSV-4U/8G-A100はGen4のPCI-Exppress Gen4 の NVIDIA A100を最大8枚搭載可能です。
詳しくは NVIDIA A100 特設ページ をご覧ください。

NVIDIA A100(1)

ピーク FP64

9.7 TF

ピーク FP64 Tensor コア

19.5 TF

ピーク FP32

19.5 TF

ピーク TF32 Tensor コア

156 TF | 312 TF*

ピーク BFLOAT16 Tensor コア

312 TF | 624 TF*

ピーク FP16 Tensor コア

312 TF | 624 TF*

ピーク INT8 Tensor コア

624 TOPS | 1,248 TOPS*

ピーク INT4 Tensor コア

1,248 TOPS | 2,496 TOPS*

GPU メモリ

40 GB

GPU メモリ帯域幅

1,555 GB/s

相互接続

PCIe Gen4 64 GB/s

マルチインスタンス GPU

最大 7MIG @5GB のさまざまなインスタンス サイズ

フォーム ファクター

SXM4

最大 TDP 電力

400W

HGX-2U/4G-A100 製品詳細と見積もり依頼はこちらから

 

株式会社GDEPアドバンスについて
株式会社ジーデップ・アドバンスは、「その仕事にアドバンテージを」コンセプトに、GPGPUをはじめとするアクセラレーターやオーバークロックワークステーション、ライブラリやコンパイラ、ソースコード解析から受託開発に至るまで、仕事や研究を加速するための手段を総合的に提供する総合ソリューションプロバイダであり、NVIDIA社パートナー認定制度「NPN(NVIDIA Partner Network)」の日本初のエリートパートナー及び、日本初のATP(Advanced Technology Partner)として活動しています。

製品、サービスに関するお問い合わせ先
株式会社ジーデップ・アドバンス
ソリューション部
Mail: sales@gdep.co.jp
TEL: 03-6803-0620 ※電話受付(平日)9:00~17:00

trending_flat