NVIDIA A2 Tensor core GPU NVIDIA A2

NVIDIA A2

 

NVIDIA A2 Tensor コア GPU は、エッジにおける NVIDIA AI のために、低電力、小占有面積、ハイ パフォーマンスでエントリ レベル推論を提供します。薄型 PCIe Gen4 カードと 40-60W の低電力で設定可能な TDP (熱設計電力) を特徴とする A2 は、大規模展開であらゆるサーバーに用途の広い推論高速化を提供します。

AI 推論は、スマートでリアルタイムな体験で消費者の生活の質を高め、エンドポイントに設置された無数のセンサーとカメラからインサイトを得るために展開されます。CPU のみのサーバーと比較した場合、NVIDIA A2 Tensor コア GPU 搭載のエッジおよびエントリ レベルのサーバーは、推論で最大 20 倍のパフォーマンスを発揮し、最新の AI を処理できるよう、あらゆるサーバーを一瞬でアップグレードします。

  • PCIe Gen4
  • GDDR6
  • 12GB
  • 3年保証
製品トップ
製品特徴
製品仕様

クラウドで、データ センターで、エッジで、業界をリードする AI 推論パフォーマンス

AI 推論は、Web サービス、ヘルスケアとライフ サイエンス、金融サービス、小売、製造、スーパーコンピューティングなど、さまざまな産業で画期的なイノベーションを推進し続けています。NVIDIA A2 の低電力な小型フォーム ファクターと、NVIDIA A100 や A30 Tensor コア GPU との組み合わせで、クラウド、データ センター、エッジにまたがる、完全な AI 推論ポートフォリオを提供します。A2 と NVIDIA AI 推論ポートフォリオにより、AI アプリケーションのデプロイにおいて、サーバーの数を減らし、電力を低くすることができます。結果的に、コストを大幅に下げつつ、インサイトをより速く得ることができます。
クラウドで、データ センターで、エッジで、業界をリードする AI 推論パフォーマンス
NVIDIA AI ENTERPRISE

NVIDIA AI ENTERPRISE

NVIDIA AI Enterprise は、AI とデータ分析ソフトウェアのエンドツーエンドのクラウドネイティブ スイートです。VMware vSphere が含まれるハイパーバイザーベースの仮想インフラストラクチャにおいて、A2 上で実行できることが認定されています。これにより、ハイブリッド クラウド環境で AI および推論ワークロードを管理、拡張できます。
 
 

 

 

メインストリームの NVIDIA-Certified Systems

NVIDIA A2 を搭載した NVIDIA-Certified Systems™ は、NVIDIA の OEM パートナーが構築および販売するエンタープライズ データ センター サーバーにおいて、コンピューティングが加速する上、高速かつ安全な NVIDIA ネットワーキングを実現します。このプログラムにより、お客様は、費用対効果が高くスケーラブルな 1 つの高性能インフラストラクチャで、NVIDIA NGC™ カタログ内の多彩な最新 AI アプリケーションに対応したシステムを特定、入手、展開することができます。
メインストリームの NVIDIA-Certified Systems
NVIDIA Ampere アーキテクチャのパワー

NVIDIA Ampere アーキテクチャのパワー

NVIDIA Ampere アーキテクチャは、エラスティック コンピューティング時代のために設計されており、現代の企業向けアプリケーションのパワーとなるために必要なパフォーマンスと高速化を提供します。世界最高クラスのパフォーマンスを誇るエラスティックなデータ センターの心臓部をご覧ください。
trending_flat