Advance with you
株式会社ジーデップ・アドバンス
ご購入前の
お問い合わせ
03-6803-0620
受付時間:平日9:00~17:00
toggle navigation
ラインナップ
ご購入ガイド
導入事例
評価用貸出機
カタログ
新着情報
セミナーイベント
企業情報
お問い合わせ
ご購入前の
お問い合わせ
03-6803-0620
受付時間:平日9:00~17:00
ラインナップ
NVIDIA® グラフィックボード
NVIDIA® RTX™ A6000
NVIDIA® RTX™ A5500
NVIDIA® RTX™ A5000
NVIDIA® RTX™ A4500
NVIDIA® RTX™ A4000
NVIDIA® コンピューティングボード
NVIDIA® H100 80GB
NVIDIA® A100 80GB
NVIDIA® A100 40GB
NVIDIA® A30
NVIDIA® A2
XILINX® FPGAボード
XILINX® Alveo™ U50
XILINX® Alveo™ U200
XILINX® Alveo™ U250
Quadro RTXノート
VELUGA G3
AI ワークステーション
DeepLearning BOX/DP
DeepLearning BOX/Alpha
DeepLearning BOXⅡ
DeepLearning BOXⅡ/Win
DeepLearning STATION
アクセラレート ワークステーション
GWS-621A
GWS-TRP/4G
GWS-i9/4G
FPGA StarterBOX
アクセラレートサーバー PCI-Express
GSV-4U/10G-A100
GSV-4U/8G-A100
GSV-2U/6G-A100
GSV-2U/4G-A100
GSV-1U/4G-A100
GSV-4U/4G-A100
GPUサーバー HGXベース
HGX-SM2U/4G-A100
HGX-SM4U/8G-A100
NVIDIA® DGXシリーズ
NVIDIA® DGX A100
NVIDIA® DGX Station
NVIDIA® DGX Station
GDEP DGX クラウド
ファイルサーバー
FSV-RM1U4B
FSV-RM2U12B
FSV-RM4U36B
FSV-TL4U60B
NAS
GNAS-DS4B
GNASⅡ-DS8B
GNASⅡ-RM2U12B
オールフラッシュ
WolfRush
Infiniband
EDR ConnectX-5 HCA
HDR ConnectX-6 HCA
EDR InfiniBand Switch
HDR InfiniBand Switch
Ethernet
10/25/100GbE Open Ethernet Switch
100GbE Open Ethernet Switch
GPUクラスタ
GDEP GPU Cluster
NVIDIA® Jetson
NVIDIA® Jetson ORIN
ソフトウェアツール
NVIDIA HPC SDK
ソフトウェアツール
Bright Cluster Manager
サービス・ソリューション
サービス・ソリューション
クラウド・レンタルサービス
NVIDIA Omniverse™
ご購入ガイド
導入事例
評価用貸出機
カタログ
新着情報
セミナーイベント
企業情報
お問い合わせ
NVIDIA® グラフィックボード
NVIDIA® コンピューティングボード
XILINX® FPGAボード
Quadro RTXノート
AI ワークステーション
アクセラレート ワークステーション
アクセラレートサーバー PCI-Express
GPUサーバー HGXベース
NVIDIA® DGXシリーズ
ファイルサーバー
NAS
オールフラッシュ
Infiniband
Ethernet
GPUクラスタ
NVIDIA® Jetson
ソフトウェアツール
ソフトウェアツール
サービス・ソリューション
GPUのGDEP
>
新着情報
>
お知らせ
>
GTC2017 速報: NVIDIA,Volta世代「Tesla V100」を発表
GTC2017 速報: NVIDIA,Volta世代「Tesla V100」を発表
2017.05.12
お知らせ
2017年5月10日カリフォルニア州サンノゼで開催された GTC2017の基調講演において、NVIDIAは、次世代GPUアーキテクチャ「Volta」をベースとするGPUアクセラレータ「Tesla V100」製品の発表を行いました。Tesla V100 は、NVIDIA社 過去最高の210億トランジスタを集積しCUDA Coreを5120基搭載、これらにより倍精度で7.5 TFLOPS、単精度で15.0TFLOPS 性能に加えてVolta世代から搭載された Tensor Core により 120 TFLOPS 演算性能を実現、深層学習では12倍,認識では6倍の性能を引き出します。また、第二世代のNVLINKにも対応され 300GB/s の帯域幅を保持することで複数のGPUを高速に処理を行います。さらに、積層 HBM2 大容量16GB/sメモリを搭載しており、900MB/sの帯域幅と性能を実現いたします。これらの性能により、CPUサーバと比較して30倍高い推論性能を実現、スループットの効率が大幅な飛躍によってAIサービスのスケールアウトが実用的になるでしょう。 NVIDIA NPN Eliteパトナー GDEPアドバンスでは AI、HPC、およびグラフィックスを高速化するために構築された世界で最も高度なデータセンター向けGPU NVIDIA®Tesla®V100を搭載したシステムのご提供を行い、これまでデータサイエンスト、AI 研究者、エンジニアが不可能であった課題に取り組んでまいります。 なお、NVIDIA®Tesla®V100を搭載したシステムの発売時期は 2017年Q3以降を予定しております。 詳しくは、GDEPアドバンスHP(https://www.gdep.co.jp)の製品情報にてお知らせいたします。 主な特徴 AIトレーニング
640テンソルコアを搭載したTesla V100は、ディープラーニングの学習パフォーマンスで 100 テラフロップス(TFLOPS)の壁を破る世界で初めてのGPUです。 次世代のNVIDIA NVLink™は、最大300 GB/s の速度で複数のV100 GPUを接続し、世界で最もパワフルなコンピューティングサーバを構築します。 従来のシステムでは何週間ものコンピューティングリソースを消費するようなAIモデルでは、これらの性能によって数日間で訓練することを可能にさせます。 トレーニング時間が大幅に短縮されることで、ワークフローの改善され全く新しい世界の問題がAIで解決できるようになるでしょう。 AI推論
Tesla V100は、既存のハイパースケールサーバーラックで最大のパフォーマンスを提供するように設計されています。 AIをコアとするTesla V100 GPUは、CPUサーバより30倍高い推論性能を実現します。 スループットの効率が大幅に飛躍することで、AIサービスのスケールアウトを実用的にするでしょう。 ハイパフォーマンスコンピューティング(HPC)
Tesla V100は、AIとHPCのコンバージェンスのための設計がなされています。 HPCに最適なシステムは、科学シミュレーションの計算科学とデータの洞察を得るためのデータサイエンスに優れたプラットフォームが求められます。 これらのニーズ向けてTesla V100搭載 サーバーは、統一されたアーキテクチャとNVIDIA CUDA®コア、Tensorコアの組み合わせを持ち、従来のHPCおよびAIワークロード用の何百もの汎用CPU専用サーバから置き換えることができます。 ハイパフォーマンスを求める研究者とエンジニアは、最も困難な課題に取り組むためにTesla V100 GPU搭載のAIスーパーコンピュータを手に入れることを提案いたします。
Copyright©GDEP ADVANCE,Inc. All Rights reserved.