DGX Station A100 は4基のNVIDIA A100を第3世代NVLinkで相互接続。GPU間をGen4PCIの約3倍となる200GB/sの広帯域で接続し、1台でAIトレーニング性能2.5PFLOPS、インファレンス性能5POPSの性能を実現するパワフルなデータサインスツールです。さらにMIG(Multi-Instance GPU)を利用してGPUリソースをフレキシブルに細分化することも可能。用途や利用環境に合わせてプロジェクト単位、ジョブ単位で効率的にその性能を引き出します。
大幅に強化されたCPUやストレージリソース
CPUには64-core の AMD® Epyc®7742 を搭載。ストレージはNVMEに強化され、OS用にM.2、DATA用にU.2のSSDを採用しています。さらにメインメモリーは512GBに倍増され、2ポートの10GbEやRemote management 1GbE LAN portを装備しネットワーク経由の本格運用にも対応しています。
DGXにオーサライズされたHPCやディープラーニング向けのソフトウェアスタック
NVIDIA DGX Station A100 は、フレームワーク、ライブラリ、ドライバを最適化するためには、専門知識と労力が不要です。NVIDIAのリポジトリ[NGC]から提供されるコンテナパッケージで、素早くトレーニングや実験に入ることができ、システムインテグレーションやソフトウェアエンジニアリングが費やす貴重な時間を省き、導入費用を抑えられます。
国内販売実績No.1のエリートパートナーが導入を後押し
株式会社ジーデップ・アドバンスはNVIDIA認定パートナー制度(NPN)の最上級であるエリートパートナーとして、NVIDIAと製版一体のサポートを提供しています。導入コンサルからセットアップ、保守メンテナンスはもちろん、日本で最初のディープラーニングワークステーション「DeepLearning BOX®」を開発販売したジーデップ・アドバンスの豊富な実績と、各種フレームワークの操作方法を習得するハンズオンプライベートセミナーや、テーマを絞った共同開発など,私共の幅広いビジネスパートナーの強力なアライアンスでDGX Station A100 の導入を力強くサポートします。
仕様
GPUs
4 x NVIDIA A100 Tensor Core GPUs
GPU Memory total
320GB (80GBx4GPUs) / 160GB (40GBx4GPUs)
Perfomance
2.5 petaFLOPS AI ; 5 petaOPS INTB
CPU
AMD® Epyc® CPU 7742, 2.25GHz to 3.4GHz,
64 cores/128 threads, PCIe Gen4core
Starage
OS: 1 x 1.92TB M.2 NVME
Data:1 x 7.68TB U.2 NVME
System Memory
512GB DDR4 RDIMM, 3200MT/s
Network
Dual 10 GbE(RJ-45)
Display GPU
4GB, 4x Mini DisplayPort
Acoustics
<37dB
Cooling
Custom refrigerant cooling system for GPUs and CPU