GTC2017 速報: NVIDIA,Volta世代「Tesla V100」を発表

Volta

2017年5月10日カリフォルニア州サンノゼで開催された GTC2017の基調講演において、NVIDIAは、次世代GPUアーキテクチャ「Volta」をベースとするGPUアクセラレータ「Tesla V100」製品の発表を行いました。Tesla V100 は、NVIDIA社 過去最高の210億トランジスタを集積しCUDA Coreを5120基搭載、これらにより倍精度で7.5 TFLOPS、単精度で15.0TFLOPS 性能に加えてVolta世代から搭載された Tensor Core により 120 TFLOPS 演算性能を実現、深層学習では12倍,認識では6倍の性能を引き出します。また、第二世代のNVLINKにも対応され 300GB/s の帯域幅を保持することで複数のGPUを高速に処理を行います。さらに、積層 HBM2 大容量16GB/sメモリを搭載しており、900MB/sの帯域幅と性能を実現いたします。これらの性能により、CPUサーバと比較して30倍高い推論性能を実現、スループットの効率が大幅な飛躍によってAIサービスのスケールアウトが実用的になるでしょう。

NVIDIA NPN Eliteパトナー GDEPアドバンスでは AI、HPC、およびグラフィックスを高速化するために構築された世界で最も高度なデータセンター向けGPU NVIDIA®Tesla®V100を搭載したシステムのご提供を行い、これまでデータサイエンスト、AI 研究者、エンジニアが不可能であった課題に取り組んでまいります。
なお、NVIDIA®Tesla®V100を搭載したシステムの発売時期は 2017年Q3以降を予定しております。
詳しくは、GDEPアドバンスHP(http://www.gdep.co.jp)の製品情報にてお知らせいたします。

主な特徴

AIトレーニング

data-center-tesla-v100-training-performance-chart625-d

640テンソルコアを搭載したTesla V100は、ディープラーニングの学習パフォーマンスで 100 テラフロップス(TFLOPS)の壁を破る世界で初めてのGPUです。 次世代のNVIDIA NVLink™は、最大300 GB/s の速度で複数のV100 GPUを接続し、世界で最もパワフルなコンピューティングサーバを構築します。 従来のシステムでは何週間ものコンピューティングリソースを消費するようなAIモデルでは、これらの性能によって数日間で訓練することを可能にさせます。 トレーニング時間が大幅に短縮されることで、ワークフローの改善され全く新しい世界の問題がAIで解決できるようになるでしょう。

AI推論

data-center-tesla-v100-inference-performance-chart-625-ut@2x

Tesla V100は、既存のハイパースケールサーバーラックで最大のパフォーマンスを提供するように設計されています。 AIをコアとするTesla V100 GPUは、CPUサーバより30倍高い推論性能を実現します。 スループットの効率が大幅に飛躍することで、AIサービスのスケールアウトを実用的にするでしょう。

ハイパフォーマンスコンピューティング(HPC)

data-center-tesla-v100-hpc-performance-chart-625-d

Tesla V100は、AIとHPCのコンバージェンスのための設計がなされています。 HPCに最適なシステムは、科学シミュレーションの計算科学とデータの洞察を得るためのデータサイエンスに優れたプラットフォームが求められます。 これらのニーズ向けてTesla V100搭載 サーバーは、統一されたアーキテクチャとNVIDIA CUDA®コア、Tensorコアの組み合わせを持ち、従来のHPCおよびAIワークロード用の何百もの汎用CPU専用サーバから置き換えることができます。 ハイパフォーマンスを求める研究者とエンジニアは、最も困難な課題に取り組むためにTesla V100 GPU搭載のAIスーパーコンピュータを手に入れることを提案いたします。

   nvlink_volta  pcie_volta 

   volta_spec
TOPへ