NVLink™テクノロジ 静音 4GPUワークステーション NVIDIA® DGX Station

NVIDIA DGX Station A100
new

NVIDIA DGX Station A100  独自冷媒冷却システム 静音37dbで100V駆動が可能なデスクサイドワークステーション

新しいNVIDIA DGX Station である「DGX Station A100」はHBM2EのGPUメモリ40GBもしくは80GBのAmpere世代のGPU NVIDIA A100を4基搭載。 デスクサイドに設置可能なワークステーションタイプでCPUにはAMD 64Core EPYCを採用。各GPU間は200GB/Secの第三世代NVLinkで接続されており、Gen4のPCI-Expressと比較して3倍のバンド幅を実現しています。
このデスクサイド静音 AIワークステーション「NVIDIA DGX Station A100」をGDEPならではの特別価格と特典をつけてご提供します。


 

アカデミックユーザー価格


40GB GPUモデル……¥7,630,000 (税抜)

80GB GPUモデル……¥11,480,000 (税抜)

 

 

一般ユーザー価格


40GB GPUモデル……¥10,350,000 (税抜)

80GB GPUモデル……¥15,580,000 (税抜)

 

※いずれもサービス&サポート(3年間)のご契約が別途必要となります

    ※上記価格はNVIDIA社の承認を前提とした参考価格です。         

      





 


データサイエンスのためのパワフルなワークステーション 

NVIDIA DGX Station A100はオフィスの机の下に収まるワークステーションサイズでありながら、最新のAmpereアーキテクチャGPU NVIDIA A100を4基搭載。最新のHMB2テクノロジで実現された40GBと、さらに高密度広帯域なHBM2Eメモリの80GBの2つのGPUから選択が可能です。各GPU間は200GB/Secの第三世代NVLinkで接続されており、PCI-Expressの約3倍の転送帯域を実現マルチGPUの恩恵を最大限に引き出します。

もちろん常に最新の状態で提供されるNVIDIA®サポート&サービスを介して、常に革新的で統合されたNVIDIAソフトウェアスタッグも利用可能です。   

  

 

NVIDIA A100 と 第三世代NVLink が驚異的なパフォーマンスを実現

DGX Station A100 は4基のNVIDIA A100を第3世代NVLinkで相互接続。GPU間をGen4PCIの約3倍となる200GB/sの広帯域で接続し、1台でAIトレーニング性能2.5PFLOPS、インファレンス性能5POPSの性能を実現するパワフルなデータサインスツールです。さらにMIG(Multi-Instance GPU)を利用してGPUリソースをフレキシブルに細分化することも可能。用途や利用環境に合わせてプロジェクト単位、ジョブ単位で効率的にその性能を引き出します。

 



大幅に強化されたCPUやストレージリソース

CPUには64-core の AMD® Epyc®7742 を搭載。ストレージはNVMEに強化され、OS用にM.2、DATA用にU.2のSSDを採用しています。さらにメインメモリーは512GBに倍増され、2ポートの10GbEやRemote management 1GbE LAN portを装備しネットワーク経由の本格運用にも対応しています。

 

DGXにオーサライズされたHPCやディープラーニング向けのソフトウェアスタック

NVIDIA DGX Station A100 は、フレームワーク、ライブラリ、ドライバを最適化するためには、専門知識と労力が不要です。NVIDIAのリポジトリ[NGC]から提供されるコンテナパッケージで、素早くトレーニングや実験に入ることができ、システムインテグレーションやソフトウェアエンジニアリングが費やす貴重な時間を省き、導入費用を抑えられます。

 

国内販売実績No.1のエリートパートナーが導入を後押し

株式会社ジーデップ・アドバンスはNVIDIA認定パートナー制度(NPN)の最上級であるエリートパートナーとして、NVIDIAと製版一体のサポートを提供しています。導入コンサルからセットアップ、保守メンテナンスはもちろん、日本で最初のディープラーニングワークステーション「DeepLearning BOX®」を開発販売したジーデップ・アドバンスの豊富な実績と、各種フレームワークの操作方法を習得するハンズオンプライベートセミナーや、テーマを絞った共同開発など,私共の幅広いビジネスパートナーの強力なアライアンスでDGX Station A100 の導入を力強くサポートします。

 

仕様

GPUs 4 x NVIDIA A100 Tensor Core GPUs
GPU Memory total 320GB (80GBx4GPUs)  /  160GB (40GBx4GPUs)
Perfomance 2.5 petaFLOPS AI ; 5 petaOPS INTB
CPU AMD® Epyc® CPU 7742, 2.25GHz to 3.4GHz,
64 cores/128 threads, PCIe Gen4core
Starage OS: 1 x 1.92TB M.2 NVME
Data:1 x 7.68TB U.2 NVME
System Memory 512GB DDR4 RDIMM, 3200MT/s
Network Dual 10 GbE(RJ-45)
Display GPU 4GB, 4x Mini DisplayPort
Acoustics <37dB
Cooling Custom refrigerant cooling system for GPUs and CPU
IPMI AST2500, IPMI, Redfish
サイズ 518 D x 256 W x 639 H  [mm]
最大消費電力 1500W 
動作温度 5-35 ℃



 


 
【GDEPアドバンス「DGX Station レンタル」のメリット】
 
レンタルですので全額損金計上によるオフバランス化が可能です。 固定資産税の負担がありません。

動産保険が付帯されますので、万が一の事態でも安心です。

柔軟なレンタル期間と支払い金額の設定が可能です。
性能が陳腐化した機器の利用も回避できます。
使用終了後は返却するだけ。
廃棄処分費用は不要です。

※データストレージの未返却オプションもご用意しています。

  ※DGX Station ロングレンタルには所定の審査がありご希望に添えない場合もございます
 

 
搭載されている各種フレームワークの使用方法をレクチャーするプライベートセミナーやQ&Aサポート、コンサルティングから開発支援に至るまで、ユーザーニーズを網羅した多様なメニューを準備し、ユーザーがDGX-Stationを導入から短期間でフル活用できるワンストップサービスを提供します。


【プライベートセミナー】
お客様のところへ訪問し各種フレームワークの使い方を
ハンズオンでレクチャーします。

【Q&Aサポート】
DeepLearningやフレームワークについて
バウチャー方式でQ&Aサポート窓口をご用意します。

【コンサルティング・開発支援】
ラフなアイディアから実用レベルまで落とし込むために、
DeepLearningの豊富な経験と知識に裏付けされた
技術力でお手伝い致します。

TOPへ

Linuxn対応について

[ 動作確認モデル ]

動作確認を行ったモデルには[ Linux対応 ]のマークを表示しています。

[ ディストリビューション ]

動作確認は標準のインストーラーを使用したインストールとX-windowの起動、及びLANチップの動作確認(DHCPでのインターネット接続)までを確認しました。
ディストリビューションはRed Hat Enterprise Linux とCentOSですが、ご要望によっては、FedraやUbuntuなど、その他ディストリビューションやバージョンについてもお気軽にご相談下さい。

[ 動作確認デバイス ]

ビデオ内蔵モデルについては内蔵ビデオチップを無効化し別途ビデオカード(nVIDIA社製)を搭載して動作確認を行っているモデルもあります。
また同様にオンボードLANチップではなく別途LANカード(Realtek社製、intel社製)を搭載し動作確認を行っているモデルもございます。

※音源(サウンド)の動作については弊社では確認を行っておりません。インストーラー標準のドライバーで動作する場合もございますが、Linuxのドライバー自体が無く動作認識しないチップもございます。ご理解下さい。

[ 設定、インストール ]

インテルやPGI等の有償コンパイラやMKL等のライブラリやツール類のインストール、各種サーバー構築、設定も承っています。お気軽にご相談下さい。