NVIDIA H200とは?
生成AIとHPCのためのGPU
NVIDIA H200 Tensor コア GPUは、革新的なパフォーマンスとメモリ機能を備え、生成AIおよびHPCワークロードを強化します。HBM3eを搭載した初のGPUであるH200は、大容量かつ高速なメモリを提供し、科学コンピューティングによるHPCワークロードの推進と、生成AIや大規模言語モデル(LLM)の高速化を実現します。
製品の特長と利点
01
大容量で高速なメモリによる高いパフォーマンス
NVIDIA Hopperアーキテクチャを基盤とするNVIDIA H200は、毎秒4.8テラバイト(TB/s)の帯域幅を持つ141ギガバイト(GB)のHBM3eメモリを搭載した初のGPUです。これは、従来のNVIDIA H100 TensorコアGPUと比較して、約2倍のメモリ容量と1.4倍のメモリ帯域幅を実現します。H200は、生成AIや大規模言語モデル(LLM)の高速化を支援し、エネルギー効率の向上、総所有コストの削減、さらにHPCワークロードにおける科学計算の進化を加速します。
高性能なLLM推論で新たな価値を創出
進化を続けるAIの分野では、企業が多様な推論ニーズを満たすためにLLM(大規模言語モデル)を積極的に活用しています。特に、大規模なユーザーベースを対象としたAI推論の展開においては、総所有コスト(TCO)を抑えながら、最大限のスループットを実現する推論アクセラレータが求められます。
NVIDIA H200は、Llama 2のようなLLMを処理する際、従来のH100 GPUと比較して推論速度を最大2倍に向上させ、企業がより迅速に洞察を得られるよう支援します。
02
ハイパフォーマンスコンピューティングを加速
ハイパフォーマンス コンピューティング(HPC)アプリケーションにおいて、メモリ帯域幅は高速なデータ転送を可能にし、複雑な処理のボトルネックを解消する重要な要素です。シミュレーションや科学研究、人工知能といったメモリ集約型のHPCワークロードでは、NVIDIA H200の圧倒的なメモリ帯域幅がデータへのアクセスと操作を劇的に効率化します。これにより、CPUと比較して最大110倍の速さで結果を導き出すことが可能になります。
03
エネルギー効率とTCOを劇的に削減
NVIDIA H200 は、H100 Tensor コア GPU と同じ電力プロファイル内で、かつてないパフォーマンスを実現します。これにより、AIファクトリーやスーパーコンピューティング システムは、これまで以上に高速かつ環境に配慮した運用が可能となります。また、エネルギー効率の向上と運用コスト(TCO)の削減を通じて、AIや科学分野のコミュニティにとって経済的な優位性を提供します。
製品の活用例

AI開発

ディープラーニング

データセンター
製品スペック
フォーム ファクター | H200 SXM¹ | H200 NVL¹ |
---|---|---|
FP64 | 34 TFLOPS | 34 TFLOPS |
FP64 Tensor コア | 67 TFLOPS | 67 TFLOPS |
FP32 | 67 TFLOPS | 67 TFLOPS |
TF32 Tensor コア | 989 TFLOPS² | 989 TFLOPS² |
FP16 Tensor コア | 1,979 TFLOPS² | 1,979 TFLOPS² |
FP8 Tensor コア | 3,958 TFLOPS² | 3,958 TFLOPS² |
INT8 Tensor コア | 3,958 TFLOPS² | 3,958 TFLOPS² |
GPU メモリ | 141GB | 141GB |
GPU メモリ帯域幅 | 4.8TB/秒 | 4.8TB/秒 |
デコーダー | 7 NVDEC 7 JPEG | 7 NVDEC 7 JPEG |
コンフィデンシャル コンピューティング | サポート対象 | サポート対象 |
最大熱設計電力 (TDP) | 最大700W(構成可能) | 最大600W(構成可能) |
マルチインスタンス GPU | 各18GBで最大7個のMIG | 各18GBで最大7個のMIG |
フォーム ファクター | SXM | PCIe |
相互接続 | NVLink: 900GB/秒 PCIe Gen5: 128GB/秒 | 2ウェイまたは4ウェイの NVIDIA NVLink ブリッジ: 900GB/秒 PCIe Gen5: 128GB/秒 |
サーバー オプション | GPUを4基または8基搭載のNVIDIA HGX H100 Partner および NVIDIA-Certified Systems™ | GPUを4基または8基搭載のNVIDIA HGX H200 パートナー製品および NVIDIA-Certified Systems™ |
NVIDIA AI Enterprise | アドオン | 同梱 |
1.仕様は変更される場合があります。
2.疎性あり
製品のよくある質問
GPUサーバーはNVIDIA認定を受けていますか?
はい。NVIDIA認定済みのGPUサーバーを提供しています。
サーバーのサイジングに協力していただくことは可能ですか?
はい。用途や希望スペック、ご予算などをヒアリングさせていただき、最適なものを提案いたします。
スペックの細かなカスタマイズは可能ですか?
はい。ご希望があればCPU、メモリー、ストレージ、ネットワークなどを細かくカスタマイズ可能です。サーバー本体や搭載するGPUにより推奨構成があるため、まずはご希望をお伺いさせていただきながらご提案いたします。
価格について教えてください。
構成に応じてパーツが変わるため都度お見積りいたします。ご相談ください。
GPUDirect RDMAは利用できますか?
GPUDirect RDMAを利用可能なサーバーもございます。必要要件がありますのでまずはご希望などをお聞かせください。
パートナー
保証・サポート
導入時のサポート
HW選定のご相談から組み立て、ラッキングまでサポートいたします。 ご要望によりOS導入・初期設定・各種ソリューションの構築も対応可能です。 記載の無い要件であっても対応可能なケースがございます。