Advance with you
株式会社ジーデップ・アドバンス

NVIDIA エリートパートナー

AIワークステーション DeepLearningBOXⅢ

DeepLearningBOXⅢ
ninki
DeepLearning BOXⅢ はインテル® Xeon® W プロセッサー(開発コード:Sapphire Rapids) W3400シリーズを搭載した GPUディープラーニングワークステーションです。
Xeon W3400シリーズの採用によりシングルソケットで最大 56 個のメニーコア環境を実現しています。インテル  ターボ・ブースト・マックス・テクノロジー 3.0 は 最大 4.8GHz の CPUクロックによって軽度にスレッド化されたアプリケーションのコアパフォーマンスを最適化し、インテル  スマートキャッシュはキャッシュとメモリー間のデータ交換の高速化によるレイテンシーを低減させます。また、最大 112 レーンの PCI Express 5.0 を備え、GPUは最大で4枚まで搭載可能です。最大 224GT/ 秒の広帯域でGPU間を接続することで計算のボトルネックを大きく解消することが期待できます。
ジーデップ・アドバンスではLLMなどの複雑で大規模なAI学習でも利用できる、最新のAdaLovelaceアーキテクチャGPUであるRTX Adaシリーズを搭載したモデルをご用意。100V-15A入力の高性能電源を2基搭載したDual PSU構成でトータル2000W以上の電源供給を可能にしており、サーバールームなど特別な電源環境を備えていない居室でのハイエンドマルチGPUが利用可能なハードウェアスペックを誇ります。

「G-Works 4.0」をインストール
DeepLearning BOXⅢには 深層学習研究において高効率で高いパフォーマンスを発揮できるよう Linux(Ubuntu)オペレーティングシステムと、当社独自のAI開発 ライブラリー群 「G-Works4.0」をインストールしてあります。さらに、OpenAI社も利用しているMLopsプラットフォームである「W&B」をプレインストールしており、最新のGPU Compute Capability 9.0に適合し最適に動作するようチューニングされています。
DeepLearning BOXⅢ はAI開発ユーザーが面倒な環境設定などを行うことなく、届いたその日から利用できる最適なAI開発環境がインストールされているターンキーAI開発用システムとなります。
  • Intel Xeon
  • 1CPU
  • 3GPU
  • PCIe 5.0
  • 10GbE
  • IPMI
  • SATA
  • M.2
  • slim SAS
  • NVMe
  • 8 DIMM slots
  • DDR5
  • ECC Registered
  • 1年保証
  • 3年保証
製品トップ
製品特徴
製品仕様

インテル Xeon W プロセッサー 搭載

最新の インテル® Xeon® W プロセッサー・ファミリー(開発コード Sapphire Rapids)は、さまざまなクリエイターのために設計されています。インテル® Xeon® W-3400/2400 プロセッサー搭載のプラットフォームは、VFX、3D レンダリング、複雑な 3D CAD、および AI 開発とエッジ導入向けの拡張されたプラットフォーム機能とともに、卓越したパフォーマンス、セキュリティー、信頼性を提供し、プロフェッショナルなクリエイター向けに究極のワークステーション・ソリューションを実現します。また。最新のDeeplearningBOXIIIは液体冷却ユニットにより冷却が行われていることで、安全で静音な環境で利用することができます。
インテル Xeon W プロセッサー 搭載
強化されたプラットフォーム

強化されたプラットフォーム

最新のDeeplearning BOXは、インテル W790 チップセットと組み合わせることで、プロフェッショナルな高速ネットワークカード、グラフィックス・アクセラレーター、大容量ストレージアレイといった拡張された周辺機器に加えて、ハイパフォーマンス・コンピューティングと信頼性を経験し、生産性と構成の柔軟性を向上することが可能です。最大 112 レーン (W2400 は64レーン)の PCIe Gen 5.0 接続、最大 4TB の DDR5 RDIMM メモリーサポート、最大 5x USB 3.2 Gen 2x2 ポートなど、革新的なプラットフォーム機能により構成に柔軟性を持たせており、プロフェッショナルな複雑なコンピューティングの需要に応えることが簡単にできます。 

ウルトラハイエンドGPUカードを 最大4枚を搭載可能

コアパーツであるGPUは、最大4枚フル帯域で搭載が可能。PCI Expressの最新世代のPCI Express 5.0レーンに対応しており、搭載可能なGPUはNVIDIA RTX 6000 Ada/*A6000*/A5000/A4000 を最大4枚搭載可能です。NVIDIA RTX A6000/5000 搭載モデルはNVLinkにも対応し、2枚1組でNVLinkブリッジを介して最大112GB/Secという広帯域でGPU間の高速なデータの転送を実現します。また、標準でCEM5に対応ケーブルを標準採用しており、最新世代のGPU搭載もサポートしております。
*200V 入力時のみ対応
 
ウルトラハイエンドGPUカードを 最大4枚を搭載可能
DeepLearning開発環境「G-Works4.0」

DeepLearning開発環境「G-Works4.0」


新しいG-Works 4.0はWandBによる課題の可視化に加えて、Ubuntu 22.04 LTSに対応、業界標準となっている仮想環境Dockerに加え、AI/HPCアプリケーションに適したSingularity、およびワークロードマネジメント用にSlurmをインストールしました。また、NVIDIA社が提供するNVIDIA GPU Cloud (NGC)の内容を検索できるngcスクリプトも配置してありますので、コマンドラインから、利用可能なDocker Imageを簡単に探し出すことができ利便性を高めています。

G-Worksの詳細はこちらからご覧ください。
trending_flat