ITインフラソリューション・運用・保守・サポートはトゥモローネットにお任せください。

PRODUCT

製品紹介

NVIDIA H200 Tensor Core GPU

生成 AI と HPC のための GPU
NVIDIA H200 Tensor コア GPUは、革新的なパフォーマンスとメモリ機能を備え、生成AIおよびHPCワークロードを強化します。HBM3eを搭載した初のGPUであるH200は、大容量かつ高速なメモリを提供し、科学コンピューティングによるHPCワークロードの推進と、生成AIや大規模言語モデル(LLM)の高速化を実現します。

製品の特長と利点

大容量で高速なメモリによる高いパフォーマンス

NVIDIA Hopperアーキテクチャを基盤とするNVIDIA H200は、毎秒4.8テラバイト(TB/s)の帯域幅を持つ141ギガバイト(GB)のHBM3eメモリを搭載した初のGPUです。これは、従来のNVIDIA H100 TensorコアGPUと比較して、約2倍のメモリ容量と1.4倍のメモリ帯域幅を実現します。H200は、生成AIや大規模言語モデル(LLM)の高速化を支援し、エネルギー効率の向上、総所有コストの削減、さらにHPCワークロードにおける科学計算の進化を加速します。

 

高性能なLLM推論で新たな価値を創出

進化を続けるAIの分野では、企業が多様な推論ニーズを満たすためにLLM(大規模言語モデル)を積極的に活用しています。特に、大規模なユーザーベースを対象としたAI推論の展開においては、総所有コスト(TCO)を抑えながら、最大限のスループットを実現する推論アクセラレータが求められます。

NVIDIA H200は、Llama 2のようなLLMを処理する際、従来のH100 GPUと比較して推論速度を最大2倍に向上させ、企業がより迅速に洞察を得られるよう支援します。

NVIDIA の AI 推論プラットフォームの詳細を見る>

高性能なLLM推論で新たな価値を創出

画像引用:次世代 GPU: H200 で AI 性能向上 | NVIDIA

ハイパフォーマンス コンピューティングを加速

ハイパフォーマンス コンピューティング(HPC)アプリケーションにおいて、メモリ帯域幅は高速なデータ転送を可能にし、複雑な処理のボトルネックを解消する重要な要素です。シミュレーションや科学研究、人工知能といったメモリ集約型のHPCワークロードでは、NVIDIA H200の圧倒的なメモリ帯域幅がデータへのアクセスと操作を劇的に効率化します。これにより、CPUと比較して最大110倍の速さで結果を導き出すことが可能になります。

ハイパフォーマンス コンピューティングの詳細を見る>

ハイパフォーマンス コンピューティングを加速

画像引用:次世代 GPU: H200 で AI 性能向上 | NVIDIA

 

エネルギー効率と TCO を劇的に削減

NVIDIA H200 は、H100 Tensor コア GPU と同じ電力プロファイル内で、かつてないパフォーマンスを実現します。これにより、AIファクトリーやスーパーコンピューティング システムは、これまで以上に高速かつ環境に配慮した運用が可能となります。また、エネルギー効率の向上と運用コスト(TCO)の削減を通じて、AIや科学分野のコミュニティにとって経済的な優位性を提供します。

持続可能なコンピューティングの詳細を見る>

画像引用:次世代 GPU: H200 で AI 性能向上 | NVIDIA

製品の活用例

AI開発

ディープラーニング

機械学習

データセンター

製品スペック

フォーム ファクター H200 SXM¹ H200 NVL¹
FP64 34 TFLOPS 34 TFLOPS
FP64 Tensor コア 67 TFLOPS 67 TFLOPS
FP32 67 TFLOPS 67 TFLOPS
TF32 Tensor コア 989 TFLOPS² 989 TFLOPS²
BFLOAT16 Tensor コア 1,979 TFLOPS² 1,979 TFLOPS²
FP16 Tensor コア 1,979 TFLOPS² 1,979 TFLOPS²
FP8 Tensor コア 3,958 TFLOPS² 3,958 TFLOPS²
INT8 Tensor コア 3,958 TFLOPS² 3,958 TFLOPS²
GPU メモリ 141GB 141GB
GPU メモリ帯域幅 4.8TB/秒 4.8TB/秒
デコーダー 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
コンフィデンシャル コンピューティング サポート対象 サポート対象
最大熱設計電力 (TDP) 最大 700W(構成可能) 最大 600W(構成可能)
マルチインスタンス GPU 各 18GB で最大 7 個の MIG 各 18GB で最大 7 個の MIG
フォーム ファクター SXM PCIe
相互接続 NVLink: 900GB/秒
PCIe Gen5: 128GB/秒
2 ウェイまたは 4 ウェイの NVIDIA NVLink ブリッジ: 900GB/秒
PCIe Gen5: 128GB/秒
サーバー オプション GPU を 4 基または 8 基搭載の NVIDIA HGX H100 Partner および NVIDIA-Certified Systems™ GPU を 4 基または 8 基搭載の NVIDIA HGX H200 パートナー製品および NVIDIA-Certified Systems™
NVIDIA AI Enterprise アドオン

同梱

1 仕様は変更される場合があります。
2 疎性あり

データシートを見る>

製品のよくある質問

はい。NVIDIA認定済みのGPUサーバーを提供しています。
はい。用途や希望スペック、ご予算などをヒアリングさせていただき、最適なものを提案いたします。
はい。ご希望があればCPU、メモリー、ストレージ、ネットワークなどを細かくカスタマイズ可能です。サーバー本体や搭載するGPUにより推奨構成があるため、まずはご希望をお伺いさせていただきながらご提案いたします。
構成に応じてパーツが変わるため都度お見積りいたします。ご相談ください。
GPUDirect RDMAを利用可能なサーバーもございます。必要要件がありますのでまずはご希望などをお聞かせください。

保証・サポート

運用保守
日本全国、メール・お電話によるお問い合わせからオンサイト保守まで対応しています。

詳しい保守メニューや事例についてはこちら

導入時のサポート
HW選定のご相談から組み立て、ラッキングまでサポートいたします。
ご要望によりOS導入・初期設定・各種ソリューションの構築も対応可能です。
記載の無い要件であっても対応可能なケースがございます。
詳しくはこちらからご確認ください

関連製品

ページトップへ戻るボタン