Advance with you
株式会社ジーデップ・アドバンス

NVIDIA エリートパートナー

4GPUサーバー GSV-IEMSM-4U4G

GSV-IEMSM-4U4G
ninki
GSV-IEMSM-4U4Gは、NVIDIA H100及びNVIDIA L40S、NVIDIA A800、RTX6000AdaをはじめとしたNVIDIA Ada Lovelace アーキテクチャ GPUを最大4基搭載可能な4UラックマウントGPUサーバーです。CPUにはAIアクセラレーションを搭載した第5世代のXeon® Scalable processorを採用し、負荷の高いAIワークロードにも対応。GPU以外のプリポスト処理の高速化にも威力を発揮します。また、IOインターフェースはPCI-Express5.0に対応し、32GT/sの広帯域なバンド幅を実現。システム全体のボトルネックを解消すると共に完全な後方互換性を提供しました。ストレージにはフロントアクセスが可能な2基の3.5インチHDDホットスワップベイと、2.5インチSSDが最大4基内蔵でき、高い拡張性を実現します。GPUカードはNVIDIA H100NVL及びNVIDIA L40S、NVIDIA A800、RTX6000AdaをはじめとしたNVIDIA Ada Lovelace アーキテクチャ GPUに対応しており(2024年12月現在)、大規模AIの学習にも推論にも利用可能なAIサーバーです。NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをシステムに合わせてオプティマイズすることも可能です。ジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
  • Intel Xeon
  • 2CPU
  • 4GPU
  • 64Core
  • 10GbE
  • IPMI
  • SATA
  • M.2
  • slim SAS
  • NVMe
  • 16 DIMM slots
  • DDR5
  • ECC Registered
  • 3年保証
製品トップ
製品特徴
製品仕様

第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)を採用、Intel 7ノード(旧10nm)で製造され、プロセッサあたり最大60個のGolden Coveコアと新しい専用アクセラレータコアを搭載、新しいアクセラレータを使用したターゲットワークロードにおいて、前世代に比べて平均1.53倍の性能向上と、ワットあたりの平均性能2.9倍の効率改善を実現します。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載
最も多機能かつセキュアなインテル® Xeon® プラットフォーム

最も多機能かつセキュアなインテル® Xeon® プラットフォーム

インテル® Xeon® プラットフォーム​の新機能により、PCIe 5.0、DDR5メモリ、CXL 1.1をサポート、またメインメモリはDDR5-4800規格で8チャネル構成、最大メインメモリ容量4TBなど、大幅な機能の向上に加えて、ネットワークは高速な10Gbpsイーサーネットを標準搭載と管理用IPMIも装備し、リモートメンテナンスにも対応しています。また、 最大8ベイのエンクロージャーはNVMe U.2に対応しており、大容量で高速なストレージ環境も柔軟に構築可能で、これまでにな多機能でセキュアなプラットフォームです。

NVIDIA Hopper アーキテクチャ NVIDIA H100 NVL 94G搭載

GPUにはNVIDIA H100 NVL 94GB を搭載可能。これは、Hopper アーキテクチャ採用の大規模 AI 向け GPU で、特に大規模言語モデルの推論・学習で圧倒的な性能を発揮します。Transformer Engine により FP8/FP16 を使い分け、高精度かつ高速処理が可能です。前世代比で推論は最大30倍、学習は最大9倍に高速化。NVLink Switch System で最大256基のGPUを接続でき、GPT-175Bモデル推論では DGX A100 の最大12倍の性能を実現します。FP64やTF32など多様な演算精度に対応し、HPCや科学計算でも高いスループットを発揮。最大毎秒2TBのメモリ帯域で大規模データ分析も高速化します。第2世代MIG機能でGPUを最大7インスタンスに分割でき、ハードウェアベースのTEE(Trusted Execution Environment)で高いセキュリティも確保します。

NVIDIA Hopper アーキテクチャ NVIDIA H100 NVL 94G搭載
DeepLearning開発環境「G-Suite」標準搭載

DeepLearning開発環境「G-Suite」標準搭載

G-Suiteは、これまでジーデップ・アドバンスが提供してきた「G-Works」の仕組み(Deep Learning の主要なフレームワークを、各世代のGPU に最適化してビルドしたソフトウェア群)を継承し、さらに発展させたOS ネイティブ環境+コンテナ環境のハイブリッドアプリケーションリソースマネージメントツールです。インターネット上のWeb サイトから様々なレシピやサポートツール群をダウンロードし、簡易解説書やチュートリアルを含むアプリケーション実行環境を構築することが可能です。Ubuntu 24.04に対応し、開発環境は miniforgeをベースとしています。各世代のGPU に最適化してビルドしたソフトウェア群に加え、OS ネイティブ環境+コンテナ環境をハイブリッドにサポートしています。



 


※Ubuntu 22.04に対応する「G-Works4.0」を選択されたい場合はこちらからご覧ください。
trending_flat