NVLink™テクノロジ 静音 4GPUワークステーション NVIDIA DGX Station A100

NVIDIA DGX Station A100

NVIDIA DGX Stationは、Ampere世代のGPUであるNVIDIA A100を4基搭載した水冷静音GPUです。
発売以来そのパフォーマンスと使いやすさから、多くのお客様にご採用を頂いています。
100V電源駆動で、オフィスへの設置を前提に設計され、他のワークステーションの1/10の騒音レベルでありながら、
ディープラーニングや分析に高いパフォーマンスを発揮します。
DGX Station は最終生産が既に完了しており在庫限りの販売となっております。是非この機会にご検討下さい。

 

こんなお客様におすすめ!
・サーバールームが無いため100V電源環境で利用したい
・居室での利用のため出来るだけ静かな動作音が好ましい
・でもパフォーマンスは妥協したくない!

NVIDIA A100 80GB を4基搭載 & GPU間は広帯域NV-Linkで接続

 
 

NVIDIA DGX Station A100  独自冷媒冷却システム 静音37dbで100V駆動が可能なデスクサイドワークステーション

新しいNVIDIA DGX Station である「DGX Station A100」はHBM2EのGPUメモリ40GBもしくは80GBのAmpere世代のGPU NVIDIA A100を4基搭載。 デスクサイドに設置可能なワークステーションタイプでCPUにはAMD 64Core EPYCを採用。各GPU間は200GB/Secの第三世代NVLinkで接続されており、Gen4のPCI-Expressと比較して3倍のバンド幅を実現しています。
 

 

データサイエンスのためのパワフルなワークステーション 

NVIDIA DGX Station A100はオフィスの机の下に収まるワークステーションサイズでありながら、最新のAmpereアーキテクチャGPU NVIDIA A100を4基搭載。最新のHMB2テクノロジで実現された40GBと、さらに高密度広帯域なHBM2Eメモリの80GBの2つのGPUから選択が可能です。各GPU間は200GB/Secの第三世代NVLinkで接続されており、PCI-Expressの約3倍の転送帯域を実現マルチGPUの恩恵を最大限に引き出します。

もちろん常に最新の状態で提供されるNVIDIA®サポート&サービスを介して、常に革新的で統合されたNVIDIAソフトウェアスタッグも利用可能です。   

  
 

NVIDIA A100と第三世代NVLINKが驚異的なパフォーマンスを実現

DGX Station A100 は4基のNVIDIA A100を第3世代NVLinkで相互接続。GPU間をGen4PCIの約3倍となる200GB/sの広帯域で接続し、1台でAIトレーニング性能2.5PFLOPS、インファレンス性能5POPSの性能を実現するパワフルなデータサインスツールです。さらにMIG(Multi-Instance GPU)を利用してGPUリソースをフレキシブルに細分化することも可能。用途や利用環境に合わせてプロジェクト単位、ジョブ単位で効率的にその性能を引き出します。

 

大幅に強化されたCPUやストレージリソース

CPUには64-core の AMD® Epyc®7742 を搭載。ストレージはNVMEに強化され、OS用にM.2、DATA用にU.2のSSDを採用しています。さらにメインメモリーは512GBに倍増され、2ポートの10GbEやRemote management 1GbE LAN portを装備しネットワーク経由の本格運用にも対応しています。

 

DGXにオーサライズされたHPCやディープラーニング向けのソフトウェアスタック

NVIDIA DGX Station A100 は、フレームワーク、ライブラリ、ドライバを最適化するためには、専門知識と労力が不要です。NVIDIAのリポジトリ[NGC]から提供されるコンテナパッケージで、素早くトレーニングや実験に入ることができ、システムインテグレーションやソフトウェアエンジニアリングが費やす貴重な時間を省き、導入費用を抑えられます。

 

国内販売実績No.1のエリートパートナーが導入を後押し

株式会社ジーデップ・アドバンスはNVIDIA認定パートナー制度(NPN)の最上級であるエリートパートナーとして、NVIDIAと製版一体のサポートを提供しています。導入コンサルからセットアップ、保守メンテナンスはもちろん、日本で最初のディープラーニングワークステーション「DeepLearning BOX®」を開発販売したジーデップ・アドバンスの豊富な実績と、各種フレームワークの操作方法を習得するハンズオンプライベートセミナーや、テーマを絞った共同開発など,私共の幅広いビジネスパートナーの強力なアライアンスでDGX Station A100 の導入を力強くサポートします。

 

仕様

GPUs 4 x NVIDIA A100 Tensor Core GPUs
GPU Memory total 320GB (80GBx4GPUs)  /  160GB (40GBx4GPUs)
Perfomance 2.5 petaFLOPS AI ; 5 petaOPS INTB
CPU AMD® Epyc® CPU 7742, 2.25GHz to 3.4GHz,
64 cores/128 threads, PCIe Gen4core
Starage OS: 1 x 1.92TB M.2 NVME
Data:1 x 7.68TB U.2 NVME
System Memory 512GB DDR4 RDIMM, 3200MT/s
Network Dual 10 GbE(RJ-45)
Display GPU 4GB, 4x Mini DisplayPort
Acoustics <37dB
Cooling Custom refrigerant cooling system for GPUs and CPU
IPMI AST2500, IPMI, Redfish
サイズ 518 D x 256 W x 639 H  [mm]
最大消費電力 1500W 
動作温度 5-35 ℃


 

 

- 100V環境で4GPUモデルをご検討のお客様はこちらもご検討下さい -
Deeplearning STATION II

100Vx2入力でPCI ExpressのGPUカードを最大4基安定動作が可能なAIワークステーション

 

▼ DeepLearningSTATION II 特設ページはこちら ▼

ご購入前のお問い合わせ

trending_flat