Advance with you
株式会社ジーデップ・アドバンス

NVIDIA エリートパートナー

NVIDIA H200 Tensor core GPU NVIDIA H200 NVL 141GB PCIe

NVIDIA H200 NVL 141GB PCIe
NVIDIA® H200 NVL は、最新のGPUアーキテクチャ「Hopper」を採用し、大容量141GBのHBM3eメモリと4.8TB/sの帯域幅を実現し生成AIに最適化されたGPUです。700億パラメータの大規模言語モデル 「Llama2 70B」の推論を前モデルである、NVIDIA H100と比較して1.9倍、1750億パラメータの大規模言語モデル「GPT3-175B」の推論で1.6倍高速化し、HPCアプリケーションにおいてはCPU (Xeon® Platinum 8480+ 2CPU) に比べて110倍の高速化を実現します。
これにより、大規模言語モデルの開発や、複雑なシミュレーションなどの高度な計算処理を短時間で実行可能になりました。また、NVIDIA AI Enterpriseの5年サブスクリプションを付属することで、より円滑なAI開発環境を提供します。
NVIDIA® H200は、大規模言語モデル研究の新たな可能性を広げる強力なツールとして、従来のGPUでは困難だった大規模なモデルのトレーニングと推論を短時間で高精度に行うことができます。HBM3eメモリの大幅な容量増加により、より複雑なモデルを扱えるようになり、研究の幅が広がります。
さらに、2枚の「H200 NVL」をNVLink™で接続することにより282GBの広大なメモリ空間を実現。各GPU間は900GB/sの広帯域で疎通可能となり、生成AIのような大規模AIモデルの学習に最適です。
※本製品は消費電力が非常に高くNVIDIAが認定したシステムにのみ搭載可能です。動作認証済のシステムや搭載方法については弊社にご相談下さい。 ※NVLinkでのGPU接続は、NVIDIA H100 NVL を2枚接続する際に有効です。異なるGPUカードとの接続は動作保障外となりますのでご注意下さい。
  NVIDIA H100 for PCIe NVIDIA H100 NVL for PCIe NVIDIA H200 NVL for PCIe
アーキテクチャ Hopper Hopper Hopper
FP64 24 TFLOPS 30TFLOPS 30 TFLOPS
FP64 Tensor コア 30 TFLOPS 60TFLOPS 60 TFLOPS
FP32 30 TFLOPS 60TFLOPS 60 TFLOPS
TF32 Tensor コア* 395 TFLOPS 835TFLOPS 835 TFLOPS
BFLOAT16 Tensor コア* 395 TFLOPS 1,671TFLOPS 1,671 TFLOPS
FP16 Tensor コア* 1,513 TFLOPS 1,671TFLOPS 1,671 TFLOPS
FP8 Tensor コア* 3,026 TFLOPS 3,341TFLOPS 3,341 TFLOPS
INT8 Tensor コア* 3,026 TOPS 3,341 TOPS 3,341 TFLOPS
GPU メモリ 80 GB HBM2e 94GB HBM3 141GB HBM3e
GPU メモリ帯域幅 2TB/秒 3.9TB/秒 4.8TB/秒
デコーダー 7 NVDEC 7 NVDEC 7 NVDEC
TDP 約350W 350-400W (構成可能) 最大600W(設定可能)
マルチインスタンス GPU 最大 7 個の MIG(第3世代) 各 12GB の最大 14 個の MIG 最大7パーティション(各16.5GB)
フォーム ファクター PCIe Dual Slot PCIe Dual Slot PCIe Dual Slot
冷却方法 Passive Passive Passive
NVIDIA AI Enterprise 含む(5年間) 含む(5年間) 含む(5年間)
保証 3年 3年 3年
【レンタルでの導入も可能】 GPUレンタルのメリットとして初期投資の削減が可能になります。 高性能なGPUを購入する必要がなく、必要なときだけレンタルできるため、コスト効率をご検討される方にお勧めです。 ご希望の場合、見積もり画面から選択できます。
  • Hopper
  • PCIe 5.0
  • HBM3e
  • 141GB
  • [FP64]30 TFLOPS
  • [FP32]60 TFLOPS
  • FP16/ FP8演算性能
  • 3年保証
製品トップ
製品特徴
製品仕様

大容量で高速なHBM3eメモリによる高いパフォーマンス

NVIDIA Hopper アーキテクチャをベースとする NVIDIA H200 は、毎秒 4.8 テラバイト (TB/s) で 141 ギガバイト (GB) の HBM3eメモリを提供する初の GPU です。

これは、NVIDIA H100 Tensor コア GPU の約 2 倍の容量で、メモリ帯域幅は 1.4 倍です。H200 の大容量かつ高速なメモリは、生成 AI と LLM を加速し、エネルギー効率を向上させ、総所有コストを低減し、HPC ワークロードに最適化されています。

大容量で高速なHBM3eメモリによる高いパフォーマンス
LLM・推論速度がH100と比較して最大 2倍向上

LLM・推論速度がH100と比較して最大 2倍向上

生成AIで話題のLLM(大規模言語モデル)は、文章作成や情報検索など働き方を大きく変えようとしています。大学や企業も、この強力なAIを活用して顧客サービスの向上や新たなビジネスモデルの創出を目指しています。AI 推論アクセラレータは、大規模なユーザーベース向けにデプロイする場合、最小のTCOで最高のスループットを実現する必要があります。

LLMを円滑に稼働させるためには、高性能なコンピュータが必要不可欠です。NVIDIA H200 AIアクセラレータは、この課題を解決する画期的なGPUです。700億パラメータの大規模言語モデル 「Llama2 70B」の推論を前モデルである、NVIDIA H100と比較して1.9倍、1750億パラメータの大規模言語モデル「GPT3-175B」の推論で1.6倍高速化し、LLMの処理速度を最大約2倍に向上させることで、より多くのユーザーに、より迅速かつ高品質なAIサービスを提供することが可能になります。

HPCアプリケーションに対してデータ転送110倍に高速化(対CPU)

NVIDIA H200は、膨大なデータを高速に処理する能力に長けたGPUです。GPUはデータの読み書き速度を示す指標としてメモリ帯域幅があり、H200は前モデルのH100 80GBの2.0TB/s、H100 NVL 94GBの3.9TB/s からさらに進化して4.8TB/s のメモリ帯域をもっています。スーパーコンピューターで複雑な計算を行う場合、大量のデータをメモリーとCPUの間で何度もやり取りが行われるのですが、これがボトルネックとなり計算速度が遅くなってしまうことがあります。

NVIDIA H200は、このボトルネックを解消するために、4.8TB/sと非常に高いメモリ帯域幅を実現しています。データをスムーズにやり取りできるため、シミュレーションやAIの学習など、大規模な計算を短時間で処理することが可能です。
また、H200は従来のCPU (Xeon® Platinum 8480+ 2CPU) と比べて、110倍の速さでデータを処理でき、高速なメモリ帯域幅は、科学研究やAI開発など技術革新を加速させる上で不可欠な存在となります。

HPCアプリケーションに対してデータ転送110倍に高速化(対CPU)
エネルギーとTCOの効率化

エネルギーとTCOの効率化

NVIDIA H200は、驚異的な性能を発揮しながらも、同時にTCO(総所有コスト)を大幅に削減できる画期的なGPUです。

前世代のH100と同等の電力消費量でありながらはるかに高いパフォーマンスを実現します。AIモデルの学習や、大規模なシミュレーションなど、高度な計算処理を必要とする分野においてこの高いエネルギー効率は、電気料金の削減に直結し、TCOを大幅に抑えることに貢献します。

高いエネルギー効率を実現することで消費電力を削減し環境負荷を軽減します。これは、サステナビリティ社会の実現に向けた重要なファクター言えるでしょう。

NVIDIA AI Enterprise エンタープライズサポートを含む5年のソフトウェアサブスクリプションが付属

NVIDIA H200とNVIDIA AI Enterpriseの組み合わせは、AI 対応プラットフォームの構築が簡素化され、生成AIやコンピュータビジョンなど、多様なAIモデルの開発と導入を加速させ、企業レベルのセキュリティと安定性を確保します。AI開発者は複雑な環境設定に煩わされることなく、AIモデルの開発に集中することができます。

これらの要素が組み合わさることで、企業はAIの導入障壁を下げ、より迅速にビジネスにAIを導入し、競争優位性を確立することができます。
NVIDIA H200には5年間分のNVIDIA AI Enterprise ソフトウェアとサポートが含まれています。

NVIDIA AI Enterprise エンタープライズサポートを含む5年のソフトウェアサブスクリプションが付属
1. Preliminary specifications. May be subject to change.
2. With sparsity.
trending_flat