NVIDIA AmpereアーキテクチャGPU NVIDIA A800 40GB Active

NVIDIA A800 40GB Active
「NVIDIA A800 40GB Active」は、デスクサイド環境でありながらNVIDIA Ampereアーキテクチャを搭載した倍精度コンピューティングのサポートによりHPCアプリケーションに対して、最大9.7TFLOPSの FP64性能を発揮します。
さらに40GB HBMGPUに加えGPU間を第3世代NV Linkにより400GB/s高速インターコネクトで接続とマルチインスタンスGPU(MIG)による、マルチテナントによるGPUリソースの分割利用が可能になります。 
また、「NVIDIA A800 40GB Active」は、デスクサイド ワークステーションにマルチGPU利用してコンピューティングパフォーマンスを高め、AI学習性能、AI推論、CSM(個体力学)、流体力学(CFD)、電磁気学 等のCAEのシュミレーション性能向上により計算時間を縮めます。 

尚、本製品には、3年間のNVIDIA AI Enterprise のサブスクリプションが提供されます。
 

【NVIDIA@ A100 vs  A800 比較】
「NVIDIA A800 40GB Active」は、NVIDIA  A100と同等仕様を有しており、デスクサイド利用においては A800 40GBの搭載をお勧め致します。

 ​       仕様 A100 40GB PCIe​ A800 40GB Active​
GPUメモリー​ 40GB HBM2​
メモリーインターフェース​ 5120-bit​
メモリー帯域幅​ 1555.2 GB/s​
CUDA コア​ 6912​
Tensor コア​ 432​
倍精度(64)演算性能​ 9.7 TFLOPS​
単精度(32)演算性能​ 19.5 TFLOPS​
マルチインスタンス GPU​ 最大7MIG​
NVIDIA NVLink​ Yes(×3)​ Yes(×2)​
NVLink 帯域幅​ 600GB/s​ 400GB/s​
システムインターフェース​ PCIe 4.0×16​
消費電力​ 250W​ 240W​
サーマル​ Passive​ Active​
フォームファクタ​ 4.4"H×10.5" L -デュアルスロット​
ディスプレイ対応​ 出力無し​
電力供給コネクタ形状​ 1×CPU-8pin​ 1x PCIe CEM5 16-pin​
重さ​ 1240g​ 1182g​

カタログダウンロードはこちらから
  • 432Tensor
  • 6912CUDA
  • Active Fan
  • PCIe Gen4
  • HBM2
  • 40GB
  • 単19.5TFLOPS
  • 倍9.7 TFLOPS
  • NV-Link
  • MIG
  • 3年保証
製品トップ
製品特徴
製品仕様

Ampereアーキテクチャを採用

NVIDIA Ampere アーキテクチャをベースにした  NVIDIA A8000 GPU は、Ampereアーキテクチャ(GA102)を採用し6912基のCUDAコアを搭載、B倍精度浮動小数点 (FP64) 演算により最大 9.7 TFLOPS  および単精度浮動小数点 (FP32) 演算の倍速処理により19.5 TFLOPSの性能をサポートします。そのほかに 数多くの新しいアーキテクチャ機能と最適化により、AI や HPC のコンピューティング能力を最大限に提供できるように設計されています。
Ampereアーキテクチャを採用
第3世代 Tensor コア

第3世代 Tensor コア

倍精度(FP64)およびTensor Float 32(TF32)精度のサポートにより、幅広いAIおよびHPCアプリケーションに対応する性能と汎用性を備え、旧世代と比較して性能と効率が最大2倍向上。構造的スパース性をハードウェアでサポートすることで、推論のスループットが2倍に向上。

マルチインスタンス GPU (MIG)

新しいマルチインスタンス GPU (MIG) 機能を使用すると、Tensor コア GPU を CUDA アプリケーション用に最大 7 つの GPU インスタンスに安全にパーティショニングすることができ、複数のユーザーに別々の GPU リソースを提供してアプリケーションや開発プロジェクトを高速化できます。  MIG を使用すると、各インスタンスのプロセッサに対して、メモリ システム全体を通るパスが個別に提供されます。つまり、オンチップのクロスバー ポート、L2 キャッシュ バンク、メモリ コントローラー、DRAM アドレス バスがすべて、個々のインスタンスに一意に割り当てられます。これにより L2 キャッシュの割り当てと DRAM 帯域幅がどのユーザーも同じになるため、あるユーザーのタスクがキャッシュのスラッシングを起こしていたり、DRAM インターフェイスを飽和させたりしていても、他のユーザーのワークロードは予測可能なスループットとレイテンシで実行できるようになります。 
マルチインスタンス GPU (MIG)
40 GB の HBM2  大容量メモリ

40 GB の HBM2 大容量メモリ

大量のコンピューティング スループットを提供するために、クラス最高の 1,555 GB/秒のメモリ帯域幅を持つ 40 GB の高速 HBM2 メモリを搭載しています。メモリ帯域幅は 前世代と比較して 73% 増加しています。さらにコンピューティング パフォーマンスを最大化するために、40 MB のレベル 2 (L2) キャッシュ (Volta の約 7 倍) を含め、はるかに多くのオンチップ メモリを搭載しています。

PCI Express Gen 4

PCI Express Gen3 の 2倍の帯域幅を提供する PCI Express Gen4 対応したことにより AI やデータサイエンスなどのデータ集約型タスク向けに CPU メモリからのデータ転送速度が向上します。
PCI Express Gen 4
trending_flat