PRODUCT
製品紹介
サーバー(ハードウェア)
NVIDIA H200 Tensor Core GPU
NVIDIA H200 Tensor コア GPUは、革新的なパフォーマンスとメモリ機能を備え、生成AIおよびHPCワークロードを強化します。HBM3eを搭載した初のGPUであるH200は、大容量かつ高速なメモリを提供し、科学コンピューティングによるHPCワークロードの推進と、生成AIや大規模言語モデル(LLM)の高速化を実現します。
製品の特長と利点
大容量で高速なメモリによる高いパフォーマンス
NVIDIA Hopperアーキテクチャを基盤とするNVIDIA H200は、毎秒4.8テラバイト(TB/s)の帯域幅を持つ141ギガバイト(GB)のHBM3eメモリを搭載した初のGPUです。これは、従来のNVIDIA H100 TensorコアGPUと比較して、約2倍のメモリ容量と1.4倍のメモリ帯域幅を実現します。H200は、生成AIや大規模言語モデル(LLM)の高速化を支援し、エネルギー効率の向上、総所有コストの削減、さらにHPCワークロードにおける科学計算の進化を加速します。
高性能なLLM推論で新たな価値を創出
進化を続けるAIの分野では、企業が多様な推論ニーズを満たすためにLLM(大規模言語モデル)を積極的に活用しています。特に、大規模なユーザーベースを対象としたAI推論の展開においては、総所有コスト(TCO)を抑えながら、最大限のスループットを実現する推論アクセラレータが求められます。
NVIDIA H200は、Llama 2のようなLLMを処理する際、従来のH100 GPUと比較して推論速度を最大2倍に向上させ、企業がより迅速に洞察を得られるよう支援します。
ハイパフォーマンス コンピューティングを加速
ハイパフォーマンス コンピューティング(HPC)アプリケーションにおいて、メモリ帯域幅は高速なデータ転送を可能にし、複雑な処理のボトルネックを解消する重要な要素です。シミュレーションや科学研究、人工知能といったメモリ集約型のHPCワークロードでは、NVIDIA H200の圧倒的なメモリ帯域幅がデータへのアクセスと操作を劇的に効率化します。これにより、CPUと比較して最大110倍の速さで結果を導き出すことが可能になります。
画像引用:次世代 GPU: H200 で AI 性能向上 | NVIDIA
エネルギー効率と TCO を劇的に削減
NVIDIA H200 は、H100 Tensor コア GPU と同じ電力プロファイル内で、かつてないパフォーマンスを実現します。これにより、AIファクトリーやスーパーコンピューティング システムは、これまで以上に高速かつ環境に配慮した運用が可能となります。また、エネルギー効率の向上と運用コスト(TCO)の削減を通じて、AIや科学分野のコミュニティにとって経済的な優位性を提供します。
製品の活用例
AI開発
ディープラーニング
データセンター
製品スペック
フォーム ファクター | H200 SXM¹ | H200 NVL¹ |
---|---|---|
FP64 | 34 TFLOPS | 34 TFLOPS |
FP64 Tensor コア | 67 TFLOPS | 67 TFLOPS |
FP32 | 67 TFLOPS | 67 TFLOPS |
TF32 Tensor コア | 989 TFLOPS² | 989 TFLOPS² |
BFLOAT16 Tensor コア | 1,979 TFLOPS² | 1,979 TFLOPS² |
FP16 Tensor コア | 1,979 TFLOPS² | 1,979 TFLOPS² |
FP8 Tensor コア | 3,958 TFLOPS² | 3,958 TFLOPS² |
INT8 Tensor コア | 3,958 TFLOPS² | 3,958 TFLOPS² |
GPU メモリ | 141GB | 141GB |
GPU メモリ帯域幅 | 4.8TB/秒 | 4.8TB/秒 |
デコーダー | 7 NVDEC 7 JPEG |
7 NVDEC 7 JPEG |
コンフィデンシャル コンピューティング | サポート対象 | サポート対象 |
最大熱設計電力 (TDP) | 最大 700W(構成可能) | 最大 600W(構成可能) |
マルチインスタンス GPU | 各 18GB で最大 7 個の MIG | 各 18GB で最大 7 個の MIG |
フォーム ファクター | SXM | PCIe |
相互接続 | NVLink: 900GB/秒 PCIe Gen5: 128GB/秒 |
2 ウェイまたは 4 ウェイの NVIDIA NVLink ブリッジ: 900GB/秒 PCIe Gen5: 128GB/秒 |
サーバー オプション | GPU を 4 基または 8 基搭載の NVIDIA HGX H100 Partner および NVIDIA-Certified Systems™ | GPU を 4 基または 8 基搭載の NVIDIA HGX H200 パートナー製品および NVIDIA-Certified Systems™ |
NVIDIA AI Enterprise | アドオン |
同梱 |
1 仕様は変更される場合があります。
2 疎性あり
製品のよくある質問
パートナー
保証・サポート
日本全国、メール・お電話によるお問い合わせからオンサイト保守まで対応しています。
詳しい保守メニューや事例についてはこちら
導入時のサポート
HW選定のご相談から組み立て、ラッキングまでサポートいたします。
ご要望によりOS導入・初期設定・各種ソリューションの構築も対応可能です。
記載の無い要件であっても対応可能なケースがございます。
詳しくはこちらからご確認ください