NVIDIA A100 搭載 NVIDIA DGX A100

NVIDIA DGX A100 実機を使って試せる評価機(テストドライブ)を提供
NVIDIAのエリートパートナーである株式会社ジーデップ・アドバンスでは 国内で唯一※の DGX A100 実機を使ったリモート検証環境【テストドライブ】をご用意しています。このテストドライブを利用して、最新アーキテクチャA100搭載のDGXで お客様の課題がどれだけスピードアップできるのか? MIGやTF32など新しい機能とその性能は? などなど、DGX A100実機を用いたベンチマークを取得して頂き、導入における正確なROIを把握して下さい。国内導入実績No.1※※のジーデップが導入を強力にバックアップします。
※2020年8月7日現在 ※※2016年、2017年、2018年、2019年のDGX-1、DGX-2、DGX-Stationの国内出荷実績(2020年1月末現在)
関連情報
NVIDIA DGX A100 TRY & BUY キャンペーン
NVIDIA DGX A100 フライヤー
NVIDIA DGX A100 特設画像「開封の儀」
NVIDIA A100 まとめ 特設ページ
DGX A100におけるMIGとジョブスケジューラUGEの動作検証
DGX-2 クラウド(ベアメタル1棟貸し 16基のGPUを使い放題)
「DGX A100 テストドライブ」で MIG を試してみた
MIG: /dev based nvidia capabilities について
DGXシリーズ国内販売実績国内No.1のジーデップが特別価格でご提供
参考価格(税別) ※以下の価格に設置・設定費用が別途掛ります。
一般向け3年サポートの場合
DGX A100/40GB $239,000-
DGX A100/80GB $319,000-
アカデミック向け3年サポートの場合
DGX A100/40GB $167,300-
DGX A100/80GB $223,300-
※上記価格の適用には事前にNVIDIA社の承認が必要となります。
※infiniband HCAを減らしたローコストモデルもラインナップされました。
※4年、5年のサポート期間の選択も可能です。
テストドライブでしっかり評価、納得のお値段で導入を後押しします。
※DGX Station A100 の製品情報はこちらからご覧ください。
豊富な販売実績から蓄積された知見で導入をサポート
ジーデップ・アドバンスでは環境構築や運用支援においても、お客様のご予算とご希望に合わせたて柔軟な提案が可能です。
一般的なDocker環境だけでなくKubernetes(K8s)コンテナオーケストレーションを利用しGPUリソースの共有化と将来的な演算ノードの増設にも容易に対応できる環境を構築します。コード管理ツールや社内専用コンテナレジストリを用意することでバージョン管理、変更履歴管理やイメージの共有も可能ですし、開発者に優しく感覚的に扱いやすいUIや、大規模計算のためのジョブ管理もブラウザで操作可能としコンテナやコンテナオーケストレーションの専門知識も不要です。
さらに、コンテナの脆弱性を開発者が利用前に検出したり、コンテナ起動中も監視を続け、不審な挙動を検知する最新のセキュリティソフトの導入も可能です。
DGX A100 世界初の5ペタFLOPSを実現
外部インターコネクトはMellanox ConnectX®-6 HDR 200Gb/s のQSFP56ポー トを9基装備しスケールアップを強力にサポートする仕様です。
新GPU A100®の演算性能は、倍精度で19.5TFLOPSと従来のV100の約2.5倍、単精度は「TF32」と呼ばれるFP32とFP16のハイブリッド方式を採用しソフトウェアの改編の必要なく 312TFLOPSのスループットを実現、ディープラーニング推論性能は1,248TOPSといずれもV100の約20倍の演算性能を誇り、8基のA100®を搭載したDGX A100®のAI性能は1ノードで実に5PFLOPSに達します。
さらに、新たに追加された MIG(Multi instance gpu) 機能は A100 GPUを7つのインスタンスに分割して、メモリ、キャッシュ、コンピューティングコアなどのリソースを割り当てて利用できます。1台の DGX A100 で最大56のインスタンスを立ててフレキシブルにリソースを配分し、推論、学習、HPC といった複数のワークロードを互いのレイテンシとスループットに影響を与えることなく同時に実行することが可能になります。
NVIDIA A100 TENSORコアGPU
※A100についての詳細はこちらのページをご覧ください
マルチインスタンスGPU(MIG)
MIG を利用することで、DGX A100 の 8 つの A100 Gpu を最大 56 個の GPU インスタンスとして構成し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。
600GB/Secを実現する次世代NVLINKとNVSWITCH
DGX A100 の第 3 世代の NVIDIA® NVLink® は、GPU から GPU への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。
Mellanox Connect X-6 VPI HDR Infiniband
DGX A100 には最新型の Mellanox ConnectX-6 VPI HDR InfiniBand /イーサネット アダプターが搭載されており、それぞれが 200 ギガバイト/秒 (GB/s) で動作し、大規模 AI ワークフロー用の高速ファブリックを形成します。
最適化されたソフトウェアスタック
DGX A100 には、AI チューニングされた基本オペレーティング システム、必要となるすべてのシステム ソフトウェア、GPU 対応アプリケーション、トレーニング済みモデル、NGC™ の各種機能など、テスト済みで最適化された DGX ソフトウェア スタックが統合されています。
組み込まれたセキュリティ
DGX A100 は、あらゆる主要なハードウェアとソフトウェア コンポーネントを保護するための自動暗号化ドライブ、署名付きソフトウェア コンテナー、安全な管理と監視といったマルチレイヤー アプローチを採用することで、AI 導入において最も信頼性の高いセキュリティ体制を実現します。
NVIDIA DGX A100 仕様

DGX A100/40GBx8GPU 320GBモデル | DGX A100/80GBx8GPU 640GBモデル | |
GPU | NVIDIA A100 Tensor Core 40GB x8 | NVIDIA A100 Tensor Core 80GB x8 |
性能 | AI で 5 petaFLOPS INT8 で 10 petaOPS |
AI で 5 petaFLOPS INT8 で 10 petaOPS |
NV Switch | 6 | 6 |
CPU |
Dual AMD Rome7742 |
Dual AMD Rome7742 |
メモリ | 1TB ※2TBに増設可能 | 2TB |
ネットワーク | Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 8 Dual-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 1 ※HCA5枚のローコストモデルもあります |
Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 8 Dual-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 1 ※HCA5枚のローコストモデルもあります |
ストレージ | OS用: 1.92TB M.2 NVME (960GB x2 RAID-1) 作業用:15 TB U.2 NVME (3.84TB x4 RAID-0) ※作業用は30TBに拡張可能 |
OS用: 1.92TB M.2 NVME (960GB x2 RAID-1) 作業用:30 TB U.2 NVME (3.84TB x8 RAID-0) |
OS | DGX OS ※Ubuntu、Redhatにも対応 | DGX OS ※Ubuntu、Redhatにも対応 |
消費電力 | 6.5kw Max | 6.5kx Max |
運用温度 | 5℃~30℃ | 5℃~30℃ |
サイズ | H264 x W482.3 xD897.1 mm 重量約123kg | H264 x W482.3 xD897.1 mm 重量約123kg |
※仕様は予告なしに変更になることがあります。
導入のご相談はDGX国内累計販売実績No.1の株式会社ジーデップ・アドバンスまで
ジーデップ・アドバンスはDGXに対する豊富な実績から、NVIDIAのベストパートナーとして受賞されております。
また、DGXのソフトウェアスタックに標準採用されるBase Command オーケストレーションツールについても、国内トップクラスの知見を有しています。DGXという最強のAIツールをスムーズに導入して頂くためにも是非私達にお手伝いをさせて下さい。
