Supermicro×NVIDIA GPU製品|生成AI向けSuperClusterについて紹介【トゥモロー・ネット テックブログ】
Supermicro社が提供するSupermicro SuperClusterは、生成AIの構築を実現するための強力な基盤となります。生成AIは処理できるデータ量やパラメーター数により性能が決まりますが、高性能のGPUを多数搭載し、また高度な冷却性能を備えたSupermicro SuperClusterにより大量データの学習・推論を高速に実現できます。
この記事では、Supermicro SuperClusterの概要とその特徴についてご紹介します。
目次
Supermicro社とは
Supermicro社は1993年にチャールズ・リャン(Charles Liang)によって設立された企業であり、主にサーバーやマザーボード、サーバーラックなどの機器を製造・販売しています。アメリカのカリフォルニア州サンノゼで設立された同社は、高性能・高効率サーバーの提供を強みとして、設立以降世界的な事業拡大を続けています。近年では、高性能GPUを搭載したGPUサーバーや大規模LLMを構築するためのSupermicro SuperClusterソリューションの提供など、生成AI分野においても存在感を示しています。トゥモロー・ネットでも、AI研究開発や科学技術計算、3D Rendering、CADなどに利用できるSupermicro社のGPUサーバー製品や大容量かつ高スループット性能を誇るNVMeサーバー製品を取り扱っています。
生成AI向けSuperClusterの紹介
以下では、Supermicro社が2024年に発表した新製品「Supermicro SuperCluster」についてご紹介します。SuperClusterは生成AI向けに最適化されたサーバーソリューションであり、GPU、CPU、メモリー、ストレージなどサーバーを構成する各要素に加え、強力な空冷・液令システムを備えます。
3種類の強力なソリューション
SuperClusterでは3種類のソリューションが提供されています。以下では各ソリューションの概要をご紹介します。
①9つのラックに32基のNVIDIA HGX H100/H200 8 GPU、8U空冷システムを備えたソリューション
(Supermicro SuperCluster With 32 NVIDIA HGX H100/H200 8-GPU, 8U Air-cooled Systems (256 GPUs) in 9 Racks)
本構成は大規模な生成AIの導入に適した、実績のあるソリューションです。1つのユニットに32×8の256個のNVIDIA H100/H200 GPUが搭載されており、数兆単位のパラメーターを持つ大規模な言語モデルをトレーニングできます。
②5つのラックに32基のNVIDIA HGX H100/H200 8 GPU、4U液冷システムを備えたソリューション
(Supermicro SuperCluster With 32 NVIDIA HGX H100/H200 8-GPU, 4U Liquid-cooled Systems (256 GPUs) in 5 Racks)
最もコンパクトな構成であり、ラックの設置面積を節約することが可能です。Supermicro社の液冷ソリューションにより設置密度が高められた結果、データセンター全体の電気コストを最大40%削減することができます。
③9つのラックに256 個の NVIDIA GH200 Grace Hopperスーパーチップが搭載されたソリューション
(Supermicro SuperCluster With 256 NVIDIA GH200 Grace Hopper Superchips, 1U MGX Systems in 9 Racks)
本構成はご紹介したソリューションの中で最高の性能を誇り、クラウド規模の推論を実現します。生成AI向けのスーパーチップである「GH200 Grace Hopper」を256個搭載し、高ボリュームの処理を低レイテンシーで実現できます。
Supermicro SuperClusterの冷却テクノロジー
GPUの性能を最大限発揮するためには、冷却技術が欠かせません。Supermicro社およびSupermicro SuperClusterの強みとして、優れた冷却テクノロジーが挙げられます。
前述した②5ラック・8U液冷システムのソリューションでは、以下のような液体による冷却技術が採用されています。
CPU/GPUコールドプレート
コールドプレートとはCPUおよびGPUを冷却するために用いられる熱伝導性の高い金属部品です。コールドプレート中に冷却剤が流れることで、CPU、GPUの各チップは効率的に冷却されます。
冷却剤分配ユニット(CDU)
コールドプレートに冷却材を送り込む役割を担うのが冷却材分配ユニット(CDU)です。CDUには、CPU/GPUコールドプレートへ冷却材を届けるためのポンプシステムが搭載されています。Supermicro社のCDUは最大100kWの冷却性能を誇り、非常に高いラック密度の実現に貢献します。
冷却剤分配マニホールド(CDM)
CDUからコールドプレートへ冷却材を送る際の配管となるのが冷却剤分配マニホールド(CDM)です。CDMは各サーバーに冷却剤を供給し、より高温の冷却剤をCDUに戻す役割を担います。
SuperClustersが実現するもの
SuperClustersは大規模なLLMや機械学習環境の構築などに活用できるソリューションですが、大規模LLMの構築においてはもはや単一のサーバーで対応することは難しく、クラスターを構築して演算処理を行う必要があります。同社は最大で世界規模の製造能力である5,000ラック/月の提供が可能であり、大規模LLMの構築など大量の需要に対しても対応できます。
同社は、Datasection、Foxconn、KDDI、シャープと共同で、アジア向けに大規模なAIデータセンターを構築する計画も明らかとしています※。同データセンターは旧シャープ堺工場に作られる予定であり、NVIDIA社が提供するAI活用のためのソフトウェア「NVIDIA AI Enterprise」に最適化された高度なシステムをサポートし、最先端のLLMに強力なパフォーマンスを提供するとのことです。
本事例のように、SuperClustersはその高速な処理性能と高い冷却能力により、企業におけるLLM構築を支える基盤となります。
まとめ
この記事では、Supermicro社が提供する生成AI向けサーバーソリューション「Supermicro SuperCluster」について、その概要や特徴についてご紹介しました。
Supermicro SuperClusterは、生成AIの構築を実現するための強力な基盤となっています。
トゥモロー・ネットでご支援できること
トゥモロー・ネットでは、Supermicro社のサーバーソリューションをはじめとした年間約3,000台のサーバー・ストレージ販売と、計50,000台のサーバー・ストレージのサポート実績を誇ります。導入から稼働までAll in Oneの万全なサポートが可能ですので、ご興味のある方はお問い合わせください。
お問い合わせはこちら
関連ページ
クラウドコンピューティングとは?仕組みやメリット・デメリットを解説
この記事の筆者
株式会社トゥモロー・ネット
クラウドソリューション本部
トゥモロー・ネットは「ITをもとに楽しい未来へつなごう」という経営理念のもと、感動や喜びのある、より良い社会へと導く企業を目指し、最先端のテクノロジーとサステナブルなインフラを提供しています。設立以来培ってきたハードウェア・ソフトウェア製造・販売、運用、保守などインフラに関わる豊富な実績と近年注力するAIサービスのコンサルティング、開発、運用、サポートにより、国内システムインテグレーション市場においてユニークなポジションを確立しています。
インフラからAIサービスまで包括的に提供することで、システム全体の柔軟性、ユーザビリティ、コストの最適化、パフォーマンス向上など、お客様の細かなニーズに沿った提案を行っています。
カテゴリー
タグ
- #ストレージ(ソフト)
- #VMware
- #Veeam Backup & Replication
- #AIインフラ
- #AMD EPYC
- #スケールアウトNAS
- #NVIDIA H200
- #NIC
- #LLM
- #AI
- #エンタープライズ
- #NVIDIA
- #NVMe
- #画像生成AI
- #コア
- #スケールアップ
- #NVIDIA A800
- #Ethernet
- #水冷サーバー
- #CPU
- #GPU
- #グリーンコンピューティング
- #SSD
- #NVIDIA H100
- #スレッド
- #スケールアウト
- #NVIDIA L40
- #Network
- #NVIDIA RTX 6000 Ada
- #Supermicro
- #GPUサーバー
- #グリーンIT
- #SAS SSD
- #ソフトウェア・デファインド・ストレージ
- #クロック周波数
- #Qumulo
- #SXM
- #InfiniBand
- #NVIDIA RTX A6000
- #Intel
- #マイグレーション
- #空冷
- #SATA SSD
- #Seagate
- #ECCメモリ
- #RedHat
- #PCle
- #NVIDIA MIG
- #量子コンピューター
- #AMD
- #レガシーアプリ
- #水冷
- #NVMe SSD
- #OSNEXUS
- #PCIレーン数
- #人工知能
- #SDS
- #DNN
- #QPU
- #サーバー
- #Windowsアップデート
- #Numecent
- #バックアップ
- #シーゲイト
- #L2 Cache
- #ChatGPT
- #水冷技術
- #NVIDIA Hopper アーキテクチャ
- #NVIDIA B200
- #朝日新聞
- #AVD
- #Azure Virtual Desktop
- #エンタープライズバックアップソリューション
- #EXOS AP
- #ストレージグリッド
- #コンテナ化
- #L4
- #NVLink
- #ProphetStor
- #ICXセンター
- #クラウドVDI
- #DX
- #Veritas NetBackup/BackupExec
- #EXOS CORVAULT
- #セキュリティ
- #OS
- #NVIDIA L4
- #NVSwitch
- #Windows10サポート終了
- #Windows10リプレース
- #アプリケーション
- #Acronis Backup
- #QuantaStor
- #SaaS
- #Docker
- #冷却機能
- #GPUアーキテクチャ
- #Windows Update
- #マイクロソフト
- #ランサムウェア
- #IBM Spectrum Protect
- #VMware
- #PaaS
- #Kubernetes
- #アプリケーション仮想化
- #vGPU
- #Cloudpaging
- #Intel筐体
- #サイバー攻撃
- #ArcServe
- #vSAN
- #仮想化
- #ITインフラ
- #アプリ仮想化
- #データセンター
- #ソフトウエア・ディファインド・ストレージ
- #AMD筐体
- #情報セキュリティ
- #NAS
- #HCI
- #IaaS
- #NVIDIA A100
- #Citrix
- #オンプレミス
- #ストレージ
- #VMware Explore
- #マルウェア
- #Network Attached Storage
- #Hyperconverged Infrastructure
- #パブリッククラウド
- #レガシーアプリケーション
- #ThinApp
- #エッジコンピューティング
- #ソフトウェア
- #NVIDIA AI Enterprise
- #ExaGrid
- #AI Enterprise
- #仮想化ストレージソリューション
- #ハイブリッドクラウド
- #NVIDIA L40S
- #App-V
- #ニューラルネットワーク
- #ストレージ(ハード)
- #VMware Tanzu
- #Veeam
- #NVAIE
- #Intel Xeon
- #マルチクラウド
- #NVIDIA A40
- #Microsoft Application Virtualization
- #ディープラーニング
アーカイブ
- 2024年12月 (3)
- 2024年11月 (10)
- 2024年10月 (15)
- 2024年9月 (10)
- 2024年8月 (10)
- 2024年7月 (10)
- 2024年6月 (11)
- 2024年5月 (10)
- 2024年4月 (10)
- 2024年3月 (8)
- 2024年2月 (9)
- 2024年1月 (8)
- 2023年12月 (11)
- 2023年11月 (8)
- 2023年10月 (14)
- 2023年9月 (9)
- 2023年8月 (8)
- 2023年7月 (11)
- 2023年6月 (3)
- 2023年5月 (1)
- 2023年4月 (6)
- 2023年3月 (1)
- 2023年2月 (6)
- 2023年1月 (1)
- 2022年12月 (4)
- 2022年11月 (4)
- 2022年10月 (4)
- 2022年9月 (3)
- 2022年8月 (4)
- 2022年6月 (5)
- 2022年5月 (3)
- 2022年4月 (1)
- 2022年3月 (4)
- 2022年1月 (1)
- 2021年11月 (3)
- 2021年10月 (2)