Advance with you
株式会社ジーデップ・アドバンス

NVIDIA エリートパートナー

4GPUサーバー GSV-IEMSM-4U4G

GSV-IEMSM-4U4G
ninki
GSV-IEMSM-4U4Gは、NVIDIA H100及びNVIDIA L40S、NVIDIA A800、RTX6000AdaをはじめとしたNVIDIA Ada Lovelace アーキテクチャ GPUを最大4基搭載可能な4UラックマウントGPUサーバーです。CPUにはAIアクセラレーションを搭載した第5世代のXeon® Scalable processorを採用し、負荷の高いAIワークロードにも対応。GPU以外のプリポスト処理の高速化にも威力を発揮します。また、IOインターフェースはPCI-Express5.0に対応し、32GT/sの広帯域なバンド幅を実現。システム全体のボトルネックを解消すると共に完全な後方互換性を提供しました。ストレージにはフロントアクセスが可能な2基の3.5インチHDDホットスワップベイと、2.5インチSSDが最大4基内蔵でき、高い拡張性を実現します。GPUカードはNVIDIA H100NVL及びNVIDIA L40S、NVIDIA A800、RTX6000AdaをはじめとしたNVIDIA Ada Lovelace アーキテクチャ GPUに対応しており(2024年12月現在)、大規模AIの学習にも推論にも利用可能なAIサーバーです。NVIDIAエリートパートナーのジーデップ・アドバンスではNVIDIA NV-Docker上にNGC(NVIDIA GPU CLOUD)開発環境を標準インストール。さらにお客様の利用環境に合わせてコンパイラやライブラリ、ジョブスケジューラなどをシステムに合わせてオプティマイズすることも可能です。ジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
カスタマイズメニューに無い構成はお気軽に弊社までお問い合わせ下さい。お客様のご要望に合わせて抜群のコストパフォーマンスと安定した利用環境をご提供します。
  • Intel Xeon
  • 2CPU
  • 4GPU
  • 64Core
  • 10GbE
  • IPMI
  • SATA
  • M.2
  • slim SAS
  • NVMe
  • 16 DIMM slots
  • DDR5
  • ECC Registered
  • 3年保証
製品トップ
製品特徴
製品仕様

第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載

第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)を採用、Intel 7ノード(旧10nm)で製造され、プロセッサあたり最大60個のGolden Coveコアと新しい専用アクセラレータコアを搭載、新しいアクセラレータを使用したターゲットワークロードにおいて、前世代に比べて平均1.53倍の性能向上と、ワットあたりの平均性能2.9倍の効率改善を実現します。
第4世代インテルXeonスケーラブル プロセッサー(Sapphire Rapids)搭載
最も多機能かつセキュアなインテル® Xeon® プラットフォーム

最も多機能かつセキュアなインテル® Xeon® プラットフォーム

インテル® Xeon® プラットフォーム​の新機能により、PCIe 5.0、DDR5メモリ、CXL 1.1をサポート、またメインメモリはDDR5-4800規格で8チャネル構成、最大メインメモリ容量4TBなど、大幅な機能の向上に加えて、ネットワークは高速な10Gbpsイーサーネットを標準搭載と管理用IPMIも装備し、リモートメンテナンスにも対応しています。また、 最大8ベイのエンクロージャーはNVMe U.2に対応しており、大容量で高速なストレージ環境も柔軟に構築可能で、これまでにな多機能でセキュアなプラットフォームです。

NVIDIA Hopper アーキテクチャ搭載 H100搭載

GPUは、NVIDIA® Hopperアーキテクチャベースで80GB HBM2eの大容量メモリを搭載が可能、NVIDIA H100 Tensor Core GPU は、TMSCの4nm プロセスルールを採用し814平方mmのダイサイズに、従来のA100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPUであり、倍精度・単精度をはじめ多様な精度を兼ね備え、マルチインスタンスGPU(MIG)機能により1つのGPUで最大7つのジョブを同時に実行可能。世界で最も困難な計算に AI、データ分析、 HPC分野で驚異的な性能を発揮します。また、第 4 世代の Tensor コアと、FP8 精度で混合エキスパート (MoE) モデルのトレーニングを前世代比最大 9 倍高速化するTransformer Engine を備えております。また、NVIDIA RTX シリーズ(RTX A6000/RTX A5000) を搭載したモデルも用意しておりジェネレーティブAI による大規模言語モデル、画像生成、医療分野の生成系AIなどAI開発、HPC研究に最適なモデルです。
NVIDIA Hopper アーキテクチャ搭載 H100搭載
AI開発環境 G-Works 標準搭載

AI開発環境 G-Works 標準搭載

本システムには Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works」、そしてOpenAI社も利用しているMLopsプラットフォームである「WandB」がプレインストールされており、AI開発ユーザーが届いたその日からすぐに利用できるターンキーでの提供となります。まさに大学、研究機関、企業のR&D部門などのAI開発者に最適なAI開発システムとなります。

trending_flat