NVIDIA A100 搭載 NVIDIA® DGX A100

NVIDIA DGX100 実機を使って試せる評価機(テストドライブ)を提供
NVIDIAのエリートパートナーである株式会社ジーデップ・アドバンスでは 国内で唯一※の DGX A100 実機を使ったリモート検証環境【テストドライブ】をご用意しています。このテストドライブを利用して、最新アーキテクチャA100搭載のDGXで お客様の課題がどれだけスピードアップできるのか? MIGやTF32など新しい機能とその性能は? などなど、DGX A100実機を用いたベンチマークを取得して頂き、導入における正確なROIを把握して下さい。国内導入実績No.1※※のジーデップが導入を強力にバックアップします。
※2020年8月7日現在 ※※2016年、2017年、2018年、2019年のDGX-1、DGX-2、DGX-Stationの国内出荷実績(2020年1月末現在)
関連情報
NVIDIA DGX A100 TRY & BUY キャンペーン
NVIDIA DGX A100 フライヤー
NVIDIA DGX A100 特設画像「開封の儀」
NVIDIA A100 まとめ 特設ページ
DGX A100におけるMIGとジョブスケジューラUGEの動作検証
DGX-2 クラウド(ベアメタル1棟貸し 16基のGPUを使い放題)
「DGX A100 テストドライブ」で MIG を試してみた
MIG: /dev based nvidia capabilities について
DGXシリーズ国内販売実績国内No.1のジーデップが特別価格でご提供
DGX A100 320GB System
一般価格 税込¥22,500,000円 ✙ サポート&サービス費用
アカデミック価格 税込¥15,800,000円 ✙ サポート&サービス費用
DGX A100 640GB System
一般価格 税込¥33,880,000円 ✙ サポート&サービス費用
アカデミック価格 税込¥24,000,000円 ✙ サポート&サービス費用
(本価格の適用にはNVIDIAの承認が前提となります)
テストドライブでしっかり評価、納得のお値段で導入を後押しします。
現在ジーデップ・アドバンスでは「日本ディープラーニング協会」「データサイエンティスト協会」の
法人会員様向けに特別価格が適用されるキャンペーンを展開中です。詳しくはこちらを御覧ください。
※DGX Station A100 の製品情報はこちらからご覧ください。
豊富な販売実績から蓄積された知見で導入をサポート
ジーデップ・アドバンスでは環境構築や運用支援においても、お客様のご予算とご希望に合わせたて柔軟な提案が可能です。
一般的なDocker環境だけでなくKubernetes(K8s)コンテナオーケストレーションを利用しGPUリソースの共有化と将来的な演算ノードの増設にも容易に対応できる環境を構築します。コード管理ツールや社内専用コンテナレジストリを用意することでバージョン管理、変更履歴管理やイメージの共有も可能ですし、開発者に優しく感覚的に扱いやすいUIや、大規模計算のためのジョブ管理もブラウザで操作可能としコンテナやコンテナオーケストレーションの専門知識も不要です。
さらに、コンテナの脆弱性を開発者が利用前に検出したり、コンテナ起動中も監視を続け、不審な挙動を検知する最新のセキュリティソフトの導入も可能です。
DGX A100 世界初の5ペタFLOPSを実現
外部インターコネクトはMellanox ConnectX®-6 HDR 200Gb/s のQSFP56ポー トを9基装備しスケールアップを強力にサポートする仕様です。
新GPU A100®の演算性能は、倍精度で19.5TFLOPSと従来のV100の約2.5倍、単精度は「TF32」と呼ばれるFP32とFP16のハイブリッド方式を採用しソフトウェアの改編の必要なく 312TFLOPSのスループットを実現、ディープラーニング推論性能は1,248TOPSといずれもV100の約20倍の演算性能を誇り、8基のA100®を搭載したDGX A100®のAI性能は1ノードで実に5PFLOPSに達します。
さらに、新たに追加された MIG(Multi instance gpu) 機能は A100 GPUを7つのインスタンスに分割して、メモリ、キャッシュ、コンピューティングコアなどのリソースを割り当てて利用できます。1台の DGX A100 で最大56のインスタンスを立ててフレキシブルにリソースを配分し、推論、学習、HPC といった複数のワークロードを互いのレイテンシとスループットに影響を与えることなく同時に実行することが可能になります。
NVIDIA A100 TENSORコアGPU
※A100についての詳細はこちらのページをご覧ください
マルチインスタンスGPU(MIG)
MIG を利用することで、DGX A100 の 8 つの A100 Gpu を最大 56 個の GPU インスタンスとして構成し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。
600GB/Secを実現する次世代NVLINKとNVSWITCH
DGX A100 の第 3 世代の NVIDIA® NVLink® は、GPU から GPU への直接帯域幅を 600 ギガバイト/秒 (GB/s) まで倍増します。
Mellanox Connect X-6 VPI HDR Infiniband
DGX A100 には最新型の Mellanox ConnectX-6 VPI HDR InfiniBand /イーサネット アダプターが搭載されており、それぞれが 200 ギガバイト/秒 (GB/s) で動作し、大規模 AI ワークフロー用の高速ファブリックを形成します。
最適化されたソフトウェアスタック
DGX A100 には、AI チューニングされた基本オペレーティング システム、必要となるすべてのシステム ソフトウェア、GPU 対応アプリケーション、トレーニング済みモデル、NGC™ の各種機能など、テスト済みで最適化された DGX ソフトウェア スタックが統合されています。
組み込まれたセキュリティ
DGX A100 は、あらゆる主要なハードウェアとソフトウェア コンポーネントを保護するための自動暗号化ドライブ、署名付きソフトウェア コンテナー、安全な管理と監視といったマルチレイヤー アプローチを採用することで、AI 導入において最も信頼性の高いセキュリティ体制を実現します。
NVIDIA DGX A100 仕様

DGX A100 | ||
320GB | 640GB | |
GPU | NVIDIA A100 Tensor Core 40 GB × 8 基 |
NVIDIA A100 Tensor Core 80 GB × 8 基 |
GPUメモリ | Total 320 GB | Total 640 GB |
性能 | AI で 5 petaFLOPS INT8 で 10 petaOPS |
|
NVIDIA NVSwitches | 6 | |
CPU | Dual AMD Rome 7742 2.25 GHz(base), 3.4 GHz(max boost) Total 128 コア |
|
システムメモリ | 1 TB (最大2TBに拡張可能) |
2 TB |
ネットワーク | Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 8 Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200 Gb/s Ethernet × 1 (Dual Portカードを2枚に拡張可能) |
Single-Port Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand × 8 Dual-Port Mellanox ConnectX-6 VPI 10/25/50/100/200 Gb/s Ethernet × 2 |
ストレージ | OS: 1.92 TB M.2 NVME drives × 2 内部ストレージ: 15 TB (3.84 TB × 4) U.2 NVME drives (30TBに拡張可能) |
OS: 1.92 TB M.2 NVME drives × 2 内部ストレージ: 30 TB (3.84 TB × 8) U.2 NVME drives |
ソフトウェア | Ubuntu Linux OS Red Hat Enterprise Linux CentOS |
|
最大消費電力 | 6.5 kW max | |
重量 | 123 kg | |
サイズ | 全高: 264.0 mm 全幅: 482.3 mm 奥行: 897.1 mm |
|
運用温度範囲 | 5 ℃ - 30 ℃ |
