世界各国のリアルタイムなデータ・インテリジェンスで皆様をお手伝い

HPCおよびAI向けハードウェア 2025-2035年:技術、市場、予測


Hardware for HPC and AI 2025-2035: Technologies, Markets, Forecasts

本レポートでは、ハイパフォーマンスコンピューティング(HPC)とAIのハードウェア市場を調査している。El Capitanのような主要なスーパーコンピュータの分析を含め、エクサスケール時代のHPC市場全体の概要を... もっと見る

 

 

出版社 出版年月 電子版価格 言語
IDTechEx
アイディーテックエックス
2024年12月13日 US$7,000
電子ファイル(1-5ユーザライセンス)
ライセンス・価格情報
注文方法はこちら
英語

※ 調査会社の事情により、予告なしに価格が変更になる場合がございます。
最新の価格はデータリソースまでご確認ください。

日本語のページは自動翻訳を利用し作成しています。


 

サマリー

本レポートでは、ハイパフォーマンスコンピューティング(HPC)とAIのハードウェア市場を調査している。El Capitanのような主要なスーパーコンピュータの分析を含め、エクサスケール時代のHPC市場全体の概要を提供しています。GPUやアクセラレータ、CPU、メモリ、先端半導体パッケージング、相互接続、熱管理などの技術に関する詳細な概要を提供するとともに、50人以上のHPC業界プレイヤーのプロフィールを掲載しています。HPCおよびAIハードウェア市場全体と6つの主要ハードウェアクラスについて、2025年から2035年までの数量と収益のきめ細かな予測により、2035年までの市場規模が5,810億米ドルになると予測される、この市場の発展機会の全体像を示しています。
 
 
スーパーコンピュータを含むHPCシステムは、多数のプロセッサで処理を並列化することにより、計算速度の点で他のすべてのクラスのコンピューティングを凌駕している。HPCは、エンジニアリング・モデリングの促進から天候予測に至るまで、重要な産業において長年不可欠なツールとなっている。AIや機械学習のユースケースが、その基礎となるモデルの規模とともに成長するにつれ、HPCシステムに対する需要は、その処理能力やコンピューティング・ノード間の相互接続に対する要求とともに、強まる一方です。
 
1秒間に1,000億回以上の浮動小数点演算を実行できる世界最大のHPCシステムは、世界的な超大国の政府系国立研究所が所有しています。しかし、民間企業も遠く及ばず、Microsoft Azureのようなクラウド・プロバイダーも上位クラスのスーパーコンピューターを所有している。AIの導入が拡大するにつれ、ここでの成長はさらに加速すると予想される。
 
IDTechExのレポートでは、プロセッサ、メモリ、ストレージ、アドバンストパッケージング、相互接続、熱管理を中心に、HPCにおける主要なハードウェアの課題を検証している。GPUとその他のAIアクセラレータは、GPU内のテンソル処理用コアの採用や、AMDがNVIDIAに挑戦する兆しなど、重要なトレンドを含むプロセッサ分野の見出しを独占している。しかし、CPU市場でも大きな進展があり、AMDのTurinプロセッサのようなチップではコア数が200に近づき、米国のEl Capitanや中国のTianhe-3を含む世界で最も強力なスーパーコンピュータでは、GPUとCPUが同じパッケージに統合された統合ヘテロジニアスシステムが導入されている。
 
メモリ分野では、HBM(High Bandwidth Memory)の採用がアクセラレータの能力向上に不可欠であり、現在HPCのアクセラレータの約95%がこの技術を採用しているが、セレクタ専用メモリ(SOM)、相変化メモリ(PCRAM)、磁気抵抗RAM(MRAM)などの次世代メモリ技術の研究は、現在のメモリ選択のエネルギー消費量の高さによって推進されている。HPC ワークロードの増大する性能要件を満たす大容量ストレージの追求により、市場で入手可能な一般的な TLC SSD よりも低コストで高密度の QLC SSD が登場しています。
 
高度なパッケージングは、これらすべてのチップ技術を実現する重要な要素であり、ロジックの上にメモリを3Dスタックすることは、デバイス上の相互接続距離を短縮することで超高帯域幅を実現する最良のアプローチです。NVIDIAのInfiniBandやHPEのSlingshotのような低レイテンシネットワークの将来の反復が、チップスケールでデータが移動しなければならない距離をさらに短縮し、全体的なスループットを高速化するために、コ・パッケージングされた光学系に移行するため、高度なパッケージング技術は、HPCノード間の相互接続のロードマップにとっても非常に重要です。
 
もちろん、これらの進歩は大量の熱を発生させるため、熱管理性能が鍵となる。運用コストとパフォーマンスにおいて液浸冷却が強力なパフォーマンスを発揮しているにもかかわらず、HPCビルダーがこのような巨大な相互接続マシンの構築に伴う巨額の資本支出を削減しようとしているため、コールドプレート冷却がほとんどのケースで選択されるテクノロジーであり続けることが予想されます。
 
 
上記のようなトレンドや、ストレージの発展やこのテクノロジーの成長に影響を与える地政学的ダイナミクスのようなさらなる課題も含め、HPC市場を理解する必要がある人にとって、IDTechExのレポートは必見である。エクサスケール時代の幕開けであり、AI開発にとってこれまでで最も実りの多い時期である今、スーパーコンピューティングの需要は急速な拡大が見込まれている。そのため、『Hardware for HPC and AI 2025-2035』には、HPCハードウェア市場全体だけでなく、CPU、GPU、HBMを含むメモリ、ストレージ、サーバーボードなどの主要ハードウェア技術に関する10年予測が含まれている。読者は、このエキサイティングな業界の現在と未来について、幅広く詳細な情報を得ることができる。
 
主要な側面
IDTechExの本レポートは、以下の主要な内容をカバーしています:
 
ハイパフォーマンスコンピューティングアーキテクチャとスーパーコンピュータ:
A) ハイパフォーマンスコンピューティングの主要なアーキテクチャとエクサスケールコンピュータの台頭を含む主要な業界動向の定義。
B) 市場促進要因やトレンド、ケーススタディ、主要OEM、国際貿易の影響、HPCバリューチェーンなど、HPC開発の現状を探る。
 
HPCとAI用ハードウェアの技術開発
A) ハイパフォーマンス・コンピューティングのためのCPU、GPU、その他のアプリケーション専用ハードウェアなどのプロセッシング・ユニットの現在の開発状況と、これらのシステム内でのAIのニーズの高まりに基づく開発状況を調査する。
B) 高帯域幅メモリ、DDRメモリ、新技術など、ハイパフォーマンス・コンピューティングとAI用のメモリ(RAM)技術の調査。
C) ハイパフォーマンス・コンピューティングにおけるストレージ技術の探求。NANDフラッシュメモリやストレージサーバーでの使用例など、先進的なストレージに焦点を当てる。様々なワークロードに対するストレージ技術の分析を含む。
D) 2.5Dおよび3Dパッケージング技術を使用したチップレット集積への移行など、ハイパフォーマンス・コンピューティング・システムで使用される先端半導体技術の調査。
E) ハイパフォーマンス・コンピューティングにおけるネットワーキングと相互接続のブレークダウン(銅線、プラガブルやコ・パッケージド・オプティクスなどの光ベースのソリューションなど
F) ハイパフォーマンスコンピューティングに使用されるデータセンターシステムの冷却システムの種類と、ハイパワーシステムに対するニーズの高まりに基づく技術動向のレビュー。
G) 全セクションで、比較分析、主要トレンド、ケーススタディ、技術ベンチマーク、主要プレイヤーの動向などを取り上げています。
 
市場予測と分析:
A) HPCシステムに使用される主要ハードウェア別に、10年間のきめ細かな市場予測。
B) HPCシステムにおける各種ハードウェアの主要技術動向と商業動向の評価。

 



ページTOPに戻る


目次

1. 要旨
1.1. ハイパフォーマンス・コンピューティング(HPC)とは?
1.2. HPCアーキテクチャ
1.3. オンプレミス、クラウド、ハイブリッドHPCインフラ:クラウド&ハイブリッドへのシフト
1.4. エクサスケール・スーパーコンピューターへの発展、そしてその先へ
1.5. TOP500スーパーコンピュータの分布(2024年6月)
1.6. 世界のエクサスケール・スーパーコンピューター
1.7. HPCメーカーの状況
1.8. 中国のスーパーコンピューティングと米中貿易戦争(上):TOP500リストへの貢献はもうない
1.9. 中国におけるスーパーコンピューティングと米中貿易戦争(II):チップ供給のオンショア化
1.10. 最先端のエクサスケール・スーパーコンピューター:オーロラ、フロンティア、エル・キャピタン
1.11. エル・キャピタン:2024年11月の米国トップHPC
1.12. HPCのプレーヤーの概要
1.13. HPCおよびAIワークロード用CPUの紹介
1.14. CPU紹介
1.15. CPUのコア・アーキテクチャ
1.16. HPCおよびAIワークロードに必要な主なCPU要件 (1)
1.17. HPCおよびAIワークロードに必要な主なCPU要件(2)
1.18. スーパーコンピュータTOP500における企業別HPC CPU市場動向
1.19. スーパーコンピュータTOP500における企業別HPC市場動向
1.20. CPUとGPUのアーキテクチャ比較
1.21. 高性能GPUアーキテクチャの内訳
1.22. 主要GPUメーカーのハイライト
1.23. データセンター向けGPUの動向
1.24. 2.5D and 3D semiconductor packaging technologies key to HPC and AI
1.25. 先端半導体パッケージング性能の主要指標
1.26. HPCチップ統合の動向
1.27. HPC向け先端半導体パッケージの道
1.28. DDRメモリがCPUを支配する一方、HBMはGPU性能のカギを握る
1.29. 予測高帯域幅メモリ(HBM)の年間販売台数と市場規模
1.30. 予測サーバー用メモリとストレージ
1.31. メモリのボトルネックがメモリ階層の細分化を促進
1.32. AIワークロードのためのクラスタにおけるストレージ階層を介したデータ移動
1.33. HPCデータセンターおよびエンタープライズ向けストレージ技術のTRL
1.34. TDPトレンド:ヒストリカルデータと予測データ - CPU
1.35. 高性能コンピュータの冷却方法の概要
1.36. チップレベルで異なる冷却
1.37. 冷却方式別年間売上高予測:2022-2035年
1.38. 予測:HPCハードウェア市場規模
2. はじめに
2.1. HPC - 概要
2.1.1. データ処理能力に対する需要の高まり
2.1.2. 集積回路の説明
2.1.3. 専用チップの必要性
2.1.4. 豊富なデータ計算システムの基礎
2.1.5. メモリ帯域幅の不足
2.1.6. アバンダンス・データ・コンピューティング・システムの4つの成長分野
2.1.7. トランジスタ・デバイスのスケーリングの主要パラメータ
2.1.8. トランジスタ・デバイス・アーキテクチャの進化
2.1.9. スケーリング・テクノロジー・ロードマップの概要
2.1.10. プロセスノード
2.1.11. 半導体ファウンドリーとそのロードマップ
2.1.12. 先進ノードのロードマップ
2.1.13. 先端半導体パッケージングの台頭と課題
2.2. データセンター
2.2.1. データセンター入門
2.2.2. データセンター機器 - トップレベルの概要
2.2.3. データセンターのサーバーラックとサーバー構造
2.2.4. データセンター・スイッチ・トポロジー - 3レイヤーとスパインリーフ・アーキテクチャ
2.2.5. Kファット・ツリー・トポロジー
2.2.6. 時間とともに増加するTDP - GPU
2.2.7. サーバーボードのTDP増加 - ムーアの法則
2.3. HPCとは?
2.3.1. ハイパフォーマンス・コンピューティング(HPC)
2.3.2. ハイパフォーマンス・コンピューティング(HPC)アーキテクチャの種類
2.3.3. HPCアーキテクチャ
2.3.4. HPC用スーパーコンピュータとメインフレーム
2.3.5. オンプレミス、クラウド、ハイブリッドHPCインフラ:クラウド&ハイブリッドへのシフト
2.3.6. アバンダンス・データ・コンピューティング・システムの基礎
2.3.7. エクサスケール・スーパーコンピューターへの発展、そしてその先へ
2.3.8. TOP500スーパーコンピュータの分布(2024年6月)
2.3.9. TOP500リストの限界
2.4. HPC用チップ技術
2.4.1. LLMの台頭と課題
2.4.2. AIチップとは何か?
2.4.3. AIアクセラレーション
2.4.4. WhyAIアクセラレーション is needed
2.4.5. AIチップの概要
2.4.6. 最先端のハイエンドAIおよびHPCチップ
2.4.7. AIコンピュート・システム・アーキテクチャの進化
2.4.8. 次世代AIのためのNVIDIAとAMDのソリューション
2.4.9. システム帯域幅を改善するための次のステップ
2.5. HPCベンチマーク
2.5.1. HPL
2.5.2. HPCベンチマーク手法の概要
2.5.3. スーパーコンピュータのエネルギー効率と性能の比較
2.5.4. HPL-AI
2.5.5. MLPerf by MLCommons
2.5.6. MLPerf - HPC
2.5.7. MLPerf 推論 - データセンター
2.5.8. スーパーコンピュータにおけるアクセラレータ/コプロセッサの採用は拡大しているが、普遍的なものにはほど遠い
2.5.9. TOP500におけるアクセラレータ採用の伸びはベンダーセグメントで最も高い
2.6. HPC導入事例
2.6.1. 世界のエクサスケール・スーパーコンピューター
2.6.2. HPCメーカーの状況
2.6.3. レノボのグローバル・リーチはユニークだ
2.6.4. MareNostrum 5'のデュアルパーパスアーキテクチャ
2.6.5. 富士通はHPCにおけるARMアーキテクチャのパイオニアである
2.6.6. 理研の富嶽HPC
2.6.7. 中国のスーパーコンピューティングと米中貿易戦争(上):TOP500リストへの貢献はもうない
2.6.8. 中国におけるスーパーコンピューティングと米中貿易戦争(II):チップ供給のオンショア化
2.6.9. 天河3号/信義:中国最強のHPC
2.6.10. HPEは世界のスーパーコンピューティング市場で大きな力を持っている
2.6.11. スーパーコンピュータFrontierのノードアーキテクチャの概要
2.6.12. 最先端のエクサスケール・スーパーコンピューター:オーロラ、フロンティア、エル・キャピタン
2.6.13. エル・キャピタン:2024年11月の米国トップHPC
2.6.14. HPCのプレーヤーの概要
3. 予測
3.1. 予測方法
3.2. 予測:HPCサーバー販売台数
3.3. 予測HPC向けCPUとGPUの販売台数
3.4. 予測HPC向けCPUとGPUの市場規模
3.5. 予測高帯域幅メモリ(HBM)の年間販売台数と市場規模
3.6. 予測サーバー用メモリとストレージ
3.7. 予測:HPCハードウェア市場規模
3.8. 冷却方式別年間売上高予測:2022-2035年
4. HPCおよびAI用CPU
4.1. 概要
4.1.1. HPCおよびAIワークロード用CPU はじめに
4.1.2. CPU紹介
4.1.3. 選手紹介サーバー・プロセッサー用CPU
4.1.4. CPUのコア・アーキテクチャ
4.1.5. インストラクション・サイクル
4.2. HPCおよびAIワークロードにおけるCPUの主要要件と技術状況
4.2.1. HPCおよびAIワークロードに必要な主なCPU要件 (1)
4.2.2. HPCおよびAIワークロードに必要な主なCPU要件(2)
4.2.3. サーバー・プロセッサーに見られるインテルCPU現在の状況
4.2.4. インテルCPUがサーバー・プロセッサーに採用テクノロジー概要
4.2.5. インテルCPUがインテル・アドバンスト・マトリクス・エクステンションでAIアクセラレータを内蔵
4.2.6. サーバー用プロセッサーに見られるAMD CPU:現在の状況
4.2.7. AMDのCPUがサーバー・プロセッサーに採用されました:テクノロジー概要
4.2.8. AMD uses 3D V-Cache Technology for1152MB L3 Cache
4.2.9. AVX-512 x86-64命令セット用ベクトル拡張命令
4.2.10. サーバー・プロセッサーに採用されているIBM Power CPU:現在の状況
4.2.11. アーム・ホールディングス、RISCベースの命令セットを搭載したコア・デザインのライセンスを供与
4.2.12. スーパーコンピュータ用ArmベースA64FX富士通プロセッサ
4.2.13. 中国サンウェイ加工業者、貿易規制にもかかわらず好調
4.3. CPU市場動向
4.3.1. TOP500スーパーコンピュータにおけるインテルXeonとAMD EPYCの普及率
4.3.2. スーパーコンピュータTOP500における企業別HPC市場動向
4.3.3. プロセッサー比較:TDP、価格、コア数 (1)
4.3.4. プロセッサー比較:TDP、価格、コア数 (2)
4.3.5. RISC採用の考察と専用GPU
5. Gpusとその他のAIアクセラレータ
5.1. GPUの背景
5.1.1. GPUソフトウェア・スタックの重要性
5.1.2. 高性能GPUアーキテクチャの内訳
5.1.3. CPUとGPUのアーキテクチャ比較
5.1.4. 統合された異種システム
5.1.5. 主要GPUメーカーのハイライト
5.2. GPUケーススタディ
5.2.1. NVIDIANVIDIA CUDAとテンソルコア
5.2.2. エヌビディアブラックウェルGPU
5.2.3. データセンター向けNVIDIAラックスケールソリューション
5.2.4. AMD:GPUコンピュート用CDNA 3アーキテクチャーとコンピュート・ユニット
5.2.5. AMD:AMD Instinct MI300Aデータセンター向けAPUはヘテロジニアスシステム
5.2.6. インテルインテルGPU MaxとXe-HPCアーキテクチャ
5.2.7. インテルファルコン・ショアーズ、AIアクセラレータ技術でHPCとAI GPUを統合
5.2.8. HPCおよびAIワークロードの精密性能
5.2.9. ベンチマーク
5.3. GPU市場インサイト
5.3.1. スーパーコンピュータTOP500における企業別HPCアクセラレータ市場動向
5.3.2. スーパーコンピュータTOP500における企業別HPCアクセラレータ市場動向
5.3.3. データセンターGPUの使用事例とビジネスモデル
5.4. GPUテクノロジーの動向とソリューション
5.4.1. データセンター向けGPUの動向
5.4.2. 高性能GPUのためのトランジスタ技術の進歩
5.4.3. トランジスタの微細化への挑戦
5.4.4. ダイ・スケーリングにおけるレチクル・リミットの克服
5.4.5. ケーススタディセレブラ社、シングルチップ・ウェーハでダイ・スケーリングを克服
5.4.6. タキウムは卓越したパフォーマンスを提供するためにゼロから構築する
5.4.7. タキウム新興企業の参入障壁
5.5. データセンター向けアプリケーション専用ハードウェア
5.5.1. HPCおよびAI向けGPUのムーアの法則を遅らせるソリューションを提供する特定用途向けハードウェア
5.5.2. AIアクセラレーター
5.5.3. AIチップの種類
5.5.4. サーバーのアクセラレーター
5.5.5. 主な出場選手AIアクセラレーター
5.6. 要約:GPUとアクセラレータ
5.6.1. GPU andAIアクセラレーター Summary
6. HPCおよびAI用メモリ(ラム
6.1. 概要
6.1.1. コンピューティング・メモリの階層
6.1.2. HPC/AIワークロードのメモリボトルネックとプロセッサの過小利用
6.1.3. DRAMの種類とHBMとDDRの比較
6.1.4. TOP500スーパーコンピュータのプロセッサとアクセラレータのメモリ技術
6.1.5. コンピューティングにおけるHBMとDDRの比較 - 市場動向
6.1.6. 2024年、HBMは需要が供給を上回る
6.2. 高帯域幅メモリー(HBM)
6.2.1. 高帯域幅メモリ(HBM)と他のDRAM技術との比較
6.2.2. HBM(高帯域幅メモリー)パッケージング
6.2.3. HBMパッケージのハイブリッド・ボンディングへの移行
6.2.4. ベンチマークマイクロバンプとハイブリッドボンディングを利用したHBMのパフォーマンス
6.2.5. SKハイニックス has started volume production of12-layer HBM3E
6.2.6. マイクロンは、NVIDIA H200向けに24GB HBM3Eをリリースし、36GB HBM3Eをサンプリングしている。
6.2.7. サムスン、2024年内にHBM3E 36GBの生産を見込む
6.2.8. 概要主要3社による現在のHBM積層技術
6.2.9. HBM世代の進化とHBM4への移行
6.2.10. ベンチマーク主要プレーヤーによるHBM技術の市場投入(1)
6.2.11. ベンチマーク主要プレーヤーによる、市場におけるHBM技術の動向 (2)
6.2.12. HBMを使用したCPUとアクセラレータの例
6.2.13. インテルのHPCワークロード向けCPU MaxシリーズがHBMとオプションのDDRを搭載
6.2.14. HPC向けユニファイドHBMメモリを搭載したAMD CDNA 3 APUアーキテクチャ
6.2.15. HBMとGPUをパッケージ化する3つの主なアプローチ
6.2.16. の欠点高帯域幅メモリー(HBM)
6.3. DDRメモリー
6.3.1. ダブルデータレート(DDR)メモリの開発
6.3.2. HPCワークロード向けAMD'第4世代EPYCプロセッサのDDR5メモリ
6.3.3. DDR5 MRDIMMにより、CPUコア数が多い場合の容量と帯域幅が増加
6.3.4. NVIDIAのGrace CPUがLPDDR5Xメモリを採用し消費電力を低減
6.3.5. HPCおよびAIアプリケーションをターゲットとする主要企業がGDDR7を発表
6.3.6. GDDR6モジュールとGDDR7モジュールの比較
6.4. メモリ拡張
6.4.1. サムスン、AIおよびデータセンター・サーバー・アプリケーション向けにCMM-Dメモリ拡張を発表
6.4.2. データセンターのストレージ階層化を実現するマイクロンのCXLメモリ拡張モジュール
6.5. 新たなメモリー技術
6.5.1. DRAMの不足が次世代メモリ・ソリューションの研究を後押し
6.5.2. 相変化メモリと3DXP用相変化材料
6.5.3. ストレージクラスメモリソリューション用セレクタオンリーメモリ(SOM)
6.5.4. 磁気ランダムアクセスメモリー(MRAM)はエネルギー効率を高めることができる
6.5.5. 抵抗ランダムアクセスメモリー(ReRAM)
6.6. 市場と展望
6.6.1. DDRメモリがCPUを支配する一方、HBMはGPU性能のカギを握る
6.6.2. メモリのボトルネックがメモリ階層の細分化を促進
6.6.3. メモリとストレージ:市場の現状と展望
7. hpc用ストレージ
7.1. 概要
7.1.1. フラッシュ・ストレージは、HPCおよびAIアプリケーション向けの主要なストレージ・テクノロジーです。
7.1.2. HPCとAIは大規模で高性能なデータストレージを必要とする
7.1.3. AIワークロードによって異なるストレージ要件
7.1.4. AIワークロードのためのクラスタにおけるストレージ階層を介したデータ移動
7.2. データセンターおよびエンタープライズ向けNANDフラッシュSSD技術
7.2.1. NANDフラッシュ・メモリは、フローティング・ゲートまたはチャージ・トラップを使用してデータを保存する
7.2.2. データセンターおよびエンタープライズ向けSSDのフォームファクターはEDSFFへ移行中
7.2.3. SKハイニックス - NAND技術開発
7.2.4. SKハイニックス: overcoming stacking limitations to increase capacity using 4D2.0
7.2.5. AIおよびデータセンター向けSKハイニックスNANDフラッシュストレージチップの例
7.2.6. ソリディグム(SKハイニックスの子会社)がインテル製SSDを提供
7.2.7. マイクロンの9550 SSDは、PCIe Gen5を搭載したAIクリティカルなワークロード向けに設計されています。
7.2.8. マイクロンはデータセンターおよびAI向けSSDをラインアップしています。
7.2.9. AIおよびHPCワークロードのためのSSD構成とソリューションの例
7.2.10. キオクシア、BiCS 3D FLASHTM技術でストレージ密度を向上
7.2.11. KIOXIAは、データセンターおよびエンタープライズ向けSSDソリューションを幅広く提供しています。
7.2.12. サムスンの第9世代V-NAND技術はAIアプリケーションをターゲットにしている
7.2.13. インテルのOptane SSDのレイテンシ重視のソリューションは、サーバー・キャッシングのために設計されました。
7.3. 技術比較とトレンド
7.3.1. 低コストQLC NANDの登場によるSSD容量の増加
7.3.2. QLCはビットあたりのコストが低く、大容量を実現するが、性能は劣る
7.3.3. PCIeの各世代におけるシーケンシャル読み出し帯域幅の段階的変化
7.3.4. SSD市場におけるPCIe世代の進化
7.3.5. さまざまなデータセンターおよびエンタープライズ・アプリケーションにおけるSSDの性能
7.3.6. 揮発性メモリとのギャップを埋めるストレージクラスメモリ用SSD
7.3.7. 垂直スタッキングは、貯蔵密度を高める唯一の要因にはなりそうもない。
7.3.8. データセンターおよびエンタープライズ向けSSDストレージ技術のエネルギー効率
7.3.9. AIワークロード用SSDの例
7.4. ストレージ・サーバー
7.4.1. HPEのHPCアプリケーション向けCray ClusterStor E1000
7.4.2. Cray ClusterStor E1000のストレージ容量は構成に応じて拡張可能
7.4.3. ネットアップ、データセンターと企業向けにオールフラッシュ・ストレージ・システムを提供
7.4.4. 他のオールフラッシュ・スケーラブル・ストレージ・システムの例
7.5. 選手と展望
7.5.1. HPCストレージのプレーヤーの例
7.5.2. HPCデータセンターおよびエンタープライズ向けストレージ技術のTRL
8. HPCを可能にする高度な半導体パッケージング
8.1. 概要先進半導体パッケージング技術
8.1.1. Progression from1D to 3D semiconductor packaging
8.1.2. 先端半導体パッケージング性能の主要指標
8.1.3. 最先端半導体パッケージの4つのキーファクター
8.1.4. 概要半導体パッケージにおける相互接続技術の
8.1.5. 概要 of 2.5D packaging structure
8.1.6. 2.5D advanced semiconductor packaging technology portfolio
8.1.7. バンプ技術の進化
8.1.8. 3D先端半導体パッケージング技術ポートフォリオ
8.2. 先進的な半導体パッケージングは、これらの課題にどのように対処できるのだろうか?
8.2.1. 従来のムーアの法則によるスケーリングではHPCのニーズの高まりに対応できない理由
8.2.2. HPCデータセンターのパフォーマンスに影響を与える主な要因
8.2.3. HPC向け先端半導体パッケージの道
8.2.4. HPCチップの統合動向 - 概要
8.2.5. HPCチップの統合トレンド - 解説
8.2.6. ハイブリッド・ボンディング・ピッチの微細化によるエネルギー効率の向上
8.2.7. AI & HPCのパッケージングで重要なこと
8.2.8. 将来のシステム・イン・パッケージ・アーキテクチャ
8.3. ケーススタディ
8.3.1. AMDインスティンクト MI300
8.3.2. AMDインスティンクト MI300はエクサスケールのスーパーコンピューティングに使用されている
8.3.3. ハイブリッドボンディングによる3Dチップ積層 - AMD
8.3.4. Intel最新XeonサーバCPU向け最先端半導体パッケージング(1)
8.3.5. ザイリンクスFPGAパッケージング
8.3.6. チップレットサーバーCPUの今後のパッケージング動向
8.3.7. 先端半導体パッケージング技術に基づくハイエンド商用チップ(1)
8.3.8. 先端半導体パッケージング技術に基づくハイエンド商用チップ(2)
9. ネットワークとインターコネクト
9.1. 概要
9.1.1. はじめに:HPCにおけるネットワーク
9.1.2. スイッチ最新のデータセンターにおける主要コンポーネント
9.1.3. なぜHPCには高性能トランシーバーが必要なのか?
9.1.4. 現在のAIシステム・アーキテクチャ
9.1.5. CuシステムによるL1バックサイド・コンピューティング・アーキテクチャ
9.1.6. 現行AIシステムのCuワイヤー数 インターコネクト
9.1.7. AI における現在の銅システムの限界
9.1.8. 光エンジン(OE)とは
9.1.9. 集積フォトニック・トランシーバー
9.1.10. Nvidiaの接続性選択:広帯域システムにおける銅と光の比較
9.1.11. プラグイン式光学部品とCPOの比較
9.1.12. 光インターコネクトによるL1バックサイド・コンピューティング・アーキテクチャ:コ・パッケージド・オプティクス(CPO)
9.1.13. 主なCPOアプリケーションネットワークスイッチとコンピューティング光I/O
9.1.14. プラグインと比較したCPOの設計決定
9.1.15. 電力効率の比較:CPO対プラガブルオプティクス対銅相互接続
9.1.16. 60cmデータ伝送技術ベンチマークのレイテンシー
9.1.17. IDTechExが予測する未来のAIアーキテクチャ
9.2. 光オンデバイス相互接続
9.2.1. オンデバイス相互接続
9.2.2. フォン・ノイマンのボトルネックの克服
9.2.3. 電気相互接続のケーススタディAI用NVIDIA Grace Hopper
9.2.4. なぜオンデバイス相互接続を改善するのか?
9.2.5. スイッチ用インターコネクトの改善
9.2.6. ケーススタディAyer Labs TeraPHY
9.2.7. ケーススタディLightmatter の PIC ベースのインターコネクト「Passage
9.3. HPCにおける相互接続規格
9.3.1. HPCにおけるインターコネクトファミリーの役割
9.3.2. 相互接続レーン
9.3.3. ロードマップの比較
9.3.4. NVIDIAとInfiniBandインターコネクトの復活
9.3.5. 新設HPCではInfiniBandが優勢
9.3.6. インテル、コーネリス・ネットワークス、オムニパス
9.3.7. コーネリス・ネットワークスと新規格オムニパスCN5000
9.3.8. ギガビットイーサネット:HPCインターコネクトのオープンスタンダード
9.3.9. HPE Cray'のSlingshotインターコネクト
9.4. 要約: HPCにおけるネットワーキング
9.4.1. 要約: HPC向けネットワーキング
10. HPCの熱管理
10.1. TDPの増大がより効率的な熱管理を促す
10.2. TDPのヒストリカルデータ - GPU
10.3. TDPトレンド:ヒストリカルデータと予測データ - CPU
10.4. データセンターの冷却分類
10.5. 冷却方法概要
10.6. チップレベルで異なる冷却
10.7. 冷却技術の比較
10.8. コールドプレート/直接チップ冷却 - 独立型コールドプレート
10.9. 液冷コールドプレート
10.10. 単相および二相コールドプレート:課題
10.11. Single-Phase and Two-Phase Immersion -概要 (1)
10.12. 単相浸漬と二相浸漬:課題
10.13. クーラントの比較
10.14. クーラントの比較 - PFAS規制
10.15. クーラント分配ユニット(CDU)
10.16. 熱伝導 - 熱界面材料(TIM) (1)
10.17. 熱伝導 - 熱界面材料(TIM) (2)
11. 会社概要
11.1. Accelsius ?二相直接チップ冷却
11.2. ACCRETECH(研削工具)
11.3. AEPONYX
11.4. アマゾンAWSデータセンター
11.5. アムコール先進半導体パッケージング
11.6. アリエカ(2024年)
11.7. アリエカ(2020年)
11.8. ASEアドバンスト・セミコンダクター・パッケージング
11.9. アスペリタス没入型コンピューティング
11.10. カリオスデータセンターアプリケーション
11.11. カムテック
11.12. CEA-Leti(先進半導体パッケージング)
11.13. シエナ
11.14. コヒーレントフォトニック集積回路ベースのトランシーバー
11.15. コメット・イクスロン
11.16. DELO: 半導体パッケージング
11.17. EFFECTフォトニクス
11.18. エンジニアード・フルード
11.19. EUチップ法 ?セミワイズ
11.20. EVG(Dハイブリッドボンディングツール)
11.21. グローバルファウンドリーズ
11.22. グリーン・レボリューション・クーリング(GRC)
11.23. ヘンケル:microTIMとデータセンター
11.24. JCETグループ
11.25. JSR株式会社
11.26. キオキシア
11.27. ライトインテリジェンス
11.28. ライトマター
11.29. リオニキス
11.30. リパック
11.31. リキッドクール・ソリューション ?シャーシベース液浸冷却
11.32. LiSAT
11.33. LPKF
11.34. スノーフェーズ
11.35. マイクロン
11.36. 三井金属鉱業・製錬(アドバンスト・セミコンダクター・パッケージング)
11.37. ナノ・ジョイント
11.38. ナノワイヤード
11.39. ネオファン
11.40. ニューロック・サーモコン
11.41. パーカー・ロード使い捨てのギャップフィラー
11.42. レゾナック(RDL絶縁層)
11.43. レゾナック・ホールディングス
11.44. サムスン電子(メモリー)
11.45. SKハイニックス
11.46. ソリディグム
11.47. 住友化学株式会社
11.48. 泰伯(上海)環境技術有限公司
11.49. TDK
11.50. トク
11.51. TSMC(アドバンスト・セミコンダクター・パッケージング)
11.52. タイソン
11.53. ヴァーティヴ・ホールディングス - データセンターの液体冷却
11.54. Vitron (Through-Glass Via Manufacturing) ? ALPKF Trademark
11.55. ズタコア

 

 

ページTOPに戻る


 

Summary

この調査レポートでは、ハイパフォーマンスコンピューティング(HPC)とAIのハードウェア市場について詳細に調査・分析しています。
 
主な掲載内容(目次より抜粋)
  • HPCおよびAI用CPU
  • GPUおよびその他のAIアクセラレーター
  • PCおよびAI用メモリー(ラム
  • hpc用ストレージ
  • HPCを可能にする先進半導体パッケージング
  • ネットワークとインターコネクト
  • PCの熱管理
 
Repoert Summary
This report examines the high-performance computing (HPC) and AI hardware markets. It provides an overview of the overall HPC market in the exascale era, including analysis of major supercomputers like El Capitan. Detailed overview of technologies including GPUs and accelerators, CPUs, memory, advanced semiconductor packaging, interconnects, and thermal management is provided, alongside over 50 profiles of HPC industry players, many from primary interviews. Highly granular forecasts from 2025 to 2035 in volume and revenue for the overall HPC and AI hardware market and 6 key classes of hardware provide a picture of the evolving opportunities in this market, with a US$581 billion market value forecast by 2035.
 
 
HPC systems, including supercomputers, outclass all other classes of computing in terms of calculation speed by parallelizing processing over many processors. HPC has long been an integral tool across critical industries, from facilitating engineering modelling to predicting the weather. As both the use-cases of AI and machine learning have grown alongside the scale of their underlying models, the demand for HPC systems has only intensified, alongside the demands on their processing power and interconnects between computing nodes.
 
The largest HPC systems in the world, which can perform over 1 quintillion floating-point operations per second, are the preserve of government-operated national labs of global superpowers. However, private corporations are not far behind, with cloud providers like Microsoft Azure possessing supercomputers in the upper echelons of performance. Growth here is only expected to accelerate as the deployment of AI widens.
 
IDTechEx's report examines the key hardware challenges in HPC, which revolve around processors, memory and storage, advanced packaging, interconnects, and thermal management. GPUs and other AI accelerators grab all the headlines in the processor space, with important trends including the adoption of cores for tensor processing within GPUs and hints of AMD challenging NVIDIA. However, substantial progress has also taken place in the CPU market, with core counts approaching 200 in chips like AMD's Turin processors and the deployment of integrated heterogeneous systems - GPUs and CPUs integrated into the same package - taking place in the world's most powerful supercomputers, including the USA's El Capitan and China's Tianhe-3.
 
In the memory space, the adoption of HBM (High Bandwidth Memory) has been crucial to the growing capabilities of accelerators, with approximately 95% of accelerators in HPC now employing the technology, but research into next-generation memory technologies such as selector-only memory (SOM), phase change memory (PCRAM) and magnetoresistive RAM (MRAM) is being driven by the high energy consumption of today's memory choices. The quest for high-capacity storage that meets the increasing performance requirements of HPC workloads is seeing the emergence of high-density QLC SSDs at a lower cost-point than typical TLC SSDs available in the market.
 
Advanced packaging is a key enabler of all these chip technologies, with the 3D stacking of memory on top of logic being the best approach to achieve ultra-high bandwidths by shrinking on-device interconnect distances. Advanced packaging techniques are also highly important for the roadmaps of the interconnects between HPC nodes, as future iterations of low-latency networks like NVIDIA's InfiniBand and HPE's Slingshot move towards co-packaged optics to further reduce the distances data must travel at the chip scale and speed up throughput overall.
 
Of course, these advances evolve large amounts of heat, so thermal management performance is key. Despite immersion cooling's strong performance in operational expense and performance, cold plate cooling is expected to remain the technology of choice in most cases as HPC builders seek to reduce the massive capital expenses that come with building these enormous interconnected machines.
 
 
For those needing to understand the HPC market, including the above trends and further challenges like the development of storage and the geopolitical dynamics that have affected the growth of this technology, IDTechEx's report is a must. At the dawn of the exascale era and in the most fruitful period for AI development yet, the demand for supercomputing is set for rapid expansion. As such, Hardware for HPC and AI 2025-2035 includes 10-year forecasts not only for the overall HPC hardware market, but for key hardware technologies including CPUs, GPUs, memory including HBM, storage and server boards. The reader will leave equipped with a wide-ranging, in-depth picture of the present and future of this exciting industry.
 
Key aspects
This report from IDTechEx covers the following key contents:
 
High-performance computing architectures and supercomputers:
A) Defining key architectures for high-performance computing and key industry trends including the rise of exascale computers.
B) Exploring the current state of HPC development, including market drivers and trends, case studies, major OEMs, the influence of international trade, and the HPC value chain.
 
Technology developments of hardware for HPC & AI:
A) Exploring current developments of processing units, such as CPUs, GPUs, and other application-specific hardware for high-performance computing and their development based on the increasing need for AI within these systems.
B) Investigating technologies for memory (RAM) for high-performance computing and AI, such as high bandwidth memory, DDR memory, and emerging technologies.
C) Exploring storage technologies in high-performance computing. Focusing on advanced storage, like NAND flash memory and its use cases in storage servers. Includes analysis of storage technologies for various workloads.
D) Investigating advanced semiconductor technologies used in high-performance computing systems, such as the move into chiplet integration using both 2.5D and 3D packaging technologies.
E) Breakdown of networking and interconnects in high-performance computing, such as copper and optical-based solutions like pluggable and co-packaged optics.
F) Review of types of cooling systems in data center systems used for high-performance computing and technology trends based on the growing need for high-power systems.
G) All sections cover comparative analysis, key trends, case studies, technology benchmarks, and developments for key players.
 
Market forecasts & analysis:
A) 10-year granular market forecasts separated by key hardware used for HPC systems.
B) Assessment of key technological and commercial trends for different hardware in HPC systems.


ページTOPに戻る


Table of Contents

1. EXECUTIVE SUMMARY
1.1. What is high performance computing (HPC)?
1.2. HPC architectures
1.3. On-premises, cloud, and hybrid HPC infrastructures: shift towards cloud & hybrid
1.4. Development to exascale supercomputers and beyond
1.5. Distribution of TOP500 supercomputers (June 2024)
1.6. Exascale supercomputers around the world
1.7. The HPC manufacturer landscape
1.8. Supercomputing in China and the US-China trade war (I): no more contribution to the TOP500 list
1.9. Supercomputing in China and the US-China trade war (II): onshoring chip supply
1.10. State of the art exascale supercomputers: Aurora, Frontier and El Capitan
1.11. El Capitan: the top US HPC in November 2024
1.12. Overview of players in HPC
1.13. CPUs for HPC and AI workloads introduction
1.14. CPU introduction
1.15. Core Architecture in a CPU
1.16. Key CPU Requirements for HPC and AI Workloads (1)
1.17. Key CPU Requirements for HPC and AI Workloads (2)
1.18. HPC CPU Market Trends by Company in the TOP500 Supercomputers
1.19. HPC Market Trends by Company in the TOP500 Supercomputers
1.20. CPU and GPU Architecture Comparison
1.21. High Performance GPU Architecture Breakdown
1.22. Highlights from Key GPU Players
1.23. Trends in Data Center GPUs
1.24. 2.5D and 3D semiconductor packaging technologies key to HPC and AI
1.25. Key metrics for advanced semiconductor packaging performance
1.26. Overview of trends in HPC chip integration
1.27. Advanced semiconductor packaging path for HPC
1.28. DDR memory dominates CPUs whereas HBM is key to GPU performance
1.29. Forecast: Yearly Unit Sales and Market Size of High Bandwidth Memory (HBM)
1.30. Forecasts: Memory and Storage for Servers
1.31. Memory bottlenecks are driving segmentation of memory hierarchy
1.32. Data movement through storage tiers in clusters for AI workloads
1.33. TRL of storage technologies for HPC Datacenter and Enterprise
1.34. TDP Trend: Historic Data and Forecast Data - CPU
1.35. Cooling Methods Overview for High Performance Computers
1.36. Different Cooling on The Chip Level
1.37. Yearly Revenue Forecast By Cooling Method: 2022-2035
1.38. Forecasts: HPC Hardware Market Size
2. INTRODUCTION
2.1. HPC - overview
2.1.1. The growing demand for data computing power
2.1.2. Integrated circuits explained
2.1.3. The need for specialized chips
2.1.4. Fundamentals of abundant data computing system
2.1.5. Memory bandwidth deficit
2.1.6. Four key area of growth for abundance data computing system
2.1.7. Key parameters for transistor device scaling
2.1.8. Evolution of transistor device architectures
2.1.9. Scaling technology roadmap overview
2.1.10. Process nodes
2.1.11. Semiconductor foundries and their roadmap
2.1.12. Roadmap for advanced nodes
2.1.13. The rise of advanced semiconductor packaging and its challenges
2.2. Data centers
2.2.1. Introduction to Data Centers
2.2.2. Data Center Equipment - Top Level Overview
2.2.3. Data Center Server Rack and Server Structure
2.2.4. Data Center Switch Topology - Three Layer and Spine-Leaf Architecture
2.2.5. K-ary Fat Tree Topology
2.2.6. TDP Increases Over Time - GPU
2.2.7. Server Boards TDP Increases - Moore's Law
2.3. What is HPC?
2.3.1. High performance computing (HPC)
2.3.2. Types of High Performance Computing (HPC) Architecture
2.3.3. HPC architectures
2.3.4. Supercomputers and mainframes for HPC
2.3.5. On-premises, cloud and hybrid HPC infrastructures: shift towards cloud & hybrid
2.3.6. Fundamentals of abundance data computing system
2.3.7. Development to exascale supercomputers and beyond
2.3.8. Distribution of TOP500 supercomputers (June 2024)
2.3.9. Limitations of the TOP500 list
2.4. Chip technologies for HPC
2.4.1. The rise and the challenges of LLM
2.4.2. What is an AI chip?
2.4.3. AI acceleration
2.4.4. Why AI acceleration is needed
2.4.5. The AI chip landscape - overview
2.4.6. State-of-the-art high-end AI and HPC chips
2.4.7. Evolution of AI compute system architecture
2.4.8. NVIDIA and AMD solutions for next-gen AI
2.4.9. The next step forward to improve system bandwidth
2.5. Benchmarking HPC
2.5.1. HPL
2.5.2. HPC benchmarking methods overview
2.5.3. Comparison of Energy Efficiency and Performance of Supercomputers
2.5.4. HPL-AI
2.5.5. MLPerf by MLCommons
2.5.6. MLPerf - HPC
2.5.7. MLPerf Inference- Datacenter
2.5.8. Adoption of Accelerators/Co-Processors in Supercomputers is Growing but Far from Universal
2.5.9. Growth in Accelerator Adoption within the TOP500 is Highest in the Vendor Segment
2.6. HPC Installation Case Studies
2.6.1. Exascale supercomputers around the world
2.6.2. The HPC manufacturer landscape
2.6.3. Lenovo's global reach is unique
2.6.4. The MareNostrum 5's dual-purpose architecture
2.6.5. Fujitsu pioneered ARM architectures in HPC
2.6.6. The Fugaku HPC at Riken
2.6.7. Supercomputing in China and the US-China trade war (I): no more contribution to the TOP500 list
2.6.8. Supercomputing in China and the US-China trade war (II): onshoring chip supply
2.6.9. Tianhe-3/Xingyi: China's most powerful HPC
2.6.10. HPE is a major force in the global supercomputing market
2.6.11. Overview of the node architecture on the Frontier supercomputer
2.6.12. State of the art exascale supercomputers: Aurora, Frontier and El Capitan
2.6.13. El Capitan: the top US HPC in November 2024
2.6.14. Overview of players in HPC
3. FORECASTS
3.1. Forecast Methodology
3.2. Forecasts: HPC Server Unit Sales
3.3. Forecast: Unit Sales of CPUs and GPUs for HPC
3.4. Forecast: Market Size of CPUs and GPUs for HPC
3.5. Forecast: Yearly Unit Sales and Market Size of High Bandwidth Memory (HBM)
3.6. Forecasts: Memory and Storage for Servers
3.7. Forecasts: HPC Hardware Market Size
3.8. Yearly Revenue Forecast By Cooling Method: 2022-2035
4. CPUS FOR HPC AND AI
4.1. Overview
4.1.1. CPUs for HPC and AI Workloads Introduction
4.1.2. CPU Introduction
4.1.3. Players: CPUs for Server Processors
4.1.4. Core Architecture in a CPU
4.1.5. The Instruction Cycle
4.2. Key Requirements for CPUs in HPC and AI Workloads and Technology Landscape
4.2.1. Key CPU Requirements for HPC and AI Workloads (1)
4.2.2. Key CPU Requirements for HPC and AI Workloads (2)
4.2.3. Intel CPUs found in Server Processors: Current Landscape
4.2.4. Intel CPUs found in Server Processors: Technology Overview
4.2.5. Intel CPUs get Built-In AI Accelerators with Intel Advanced Matrix Extensions
4.2.6. AMD CPUs found in Server Processors: Current Landscape
4.2.7. AMD CPUs found in Server Processors: Technology Overview
4.2.8. AMD uses 3D V-Cache Technology for 1152MB L3 Cache
4.2.9. AVX-512 Vector Extensions for x86-64 Instruction Set
4.2.10. IBM Power CPUs found in Server Processors: Current Landscape
4.2.11. Arm Holdings Licences Core Designs with its RISC-Based Instruction Sets
4.2.12. Arm based A64FX Fujitsu Processors for Supercomputers
4.2.13. Chinese Sunway Processors Perform well despite Trade Restrictions
4.3. CPU Market Trends
4.3.1. Intel Xeon and AMD EPYC Uptake in TOP500 Supercomputers
4.3.2. HPC Market Trends by Company in the TOP500 Supercomputers
4.3.3. Processor Comparison: TDP, Price and Core Count (1)
4.3.4. Processor Comparison: TDP, Price and Core Count (2)
4.3.5. RISC Adoption Consideration and Specialised GPUs
5. GPUS AND OTHER AI ACCELERATORS
5.1. GPUs Background
5.1.1. Importance of GPU Software Stacks
5.1.2. High Performance GPU Architecture Breakdown
5.1.3. CPU and GPU Architecture Comparison
5.1.4. Integrated Heterogeneous Systems
5.1.5. Highlights from Key GPU Players
5.2. GPU Case Studies
5.2.1. NVIDIA: NVIDIA CUDA and Tensor Cores
5.2.2. NVIDIA: Blackwell GPU
5.2.3. NVIDIA Rack-Scale Solutions for Datacenters
5.2.4. AMD: CDNA 3 Architecture and Compute Units for GPU Compute
5.2.5. AMD: AMD Instinct MI300A Data Centre APUs are Heterogeneous Systems
5.2.6. Intel: Intel GPU Max and the Xe-HPC Architecture
5.2.7. Intel: Falcon Shores Integrates HPC and AI GPU with AI Accelerator Tech
5.2.8. Precision Performance for HPC and AI Workloads
5.2.9. Benchmark
5.3. GPU Market Insights
5.3.1. HPC Accelerator Market Trends by Company in the TOP500 Supercomputers
5.3.2. HPC Accelerator Market Trends by Company in the TOP500 Supercomputers
5.3.3. Datacenter GPUs Use Cases and Business Models
5.4. Trends and Solutions In GPU Technology
5.4.1. Trends in Data Center GPUs
5.4.2. Transistor Technologies Advance for High-Performance GPUs
5.4.3. Challenges in Transistor Scaling
5.4.4. Overcoming the Reticle Limit for Die Scaling
5.4.5. Case Study: Cerebras Overcomes Die Scaling using Single-Chip Wafers
5.4.6. Tachyum Builds from the Ground up to Deliver Exceptional Performance
5.4.7. Tachyum: Barriers to Entry for Startups
5.5. Application-Specific Hardware for Data Centers
5.5.1. Application-Specific Hardware Provides Solution for Slowing Moore's Law in GPUs for HPC and AI
5.5.2. AI Accelerators
5.5.3. AI chip types
5.5.4. Accelerators in servers
5.5.5. Main Players for AI Accelerators
5.6. Summary: GPUs and Accelerators
5.6.1. GPU and AI Accelerators Summary
6. MEMORY (RAM) FOR HPC AND AI
6.1. Overview
6.1.1. Hierarchy of computing memory
6.1.2. Memory bottlenecks for HPC/AI workloads and processor under-utilization
6.1.3. Types of DRAM and Comparison of HBM with DDR
6.1.4. Memory technology in TOP500 supercomputers processors and accelerators
6.1.5. HBM vs DDR for computing - market trend
6.1.6. Demand outgrows supply for HBM in 2024
6.2. High Bandwidth Memory (HBM)
6.2.1. High bandwidth memory (HBM) and comparison with other DRAM technologies
6.2.2. HBM (High Bandwidth Memory) packaging
6.2.3. HBM packaging transition to hybrid bonding
6.2.4. Benchmark of HBM performance utilizing µ bump and hybrid bonding
6.2.5. SK Hynix has started volume production of 12-layer HBM3E
6.2.6. Micron released 24GB HBM3E for NVIDIA H200 and is sampling 36GB HBM3E
6.2.7. Samsung expects production of HBM3E 36GB within 2024
6.2.8. Overview of current HBM stacking technologies by 3 main players
6.2.9. Evolution of HBM generations and transition to HBM4
6.2.10. Benchmarking of HBM technologies in the market from key players (1)
6.2.11. Benchmarking of HBM technologies in the market from key players (2)
6.2.12. Examples of CPUs and accelerators using HBM
6.2.13. Intel's CPU Max series for HPC workloads has HBM and optional DDR
6.2.14. AMD CDNA 3 APU architecture with unified HBM memory for HPC
6.2.15. Three main approaches to package HBM and GPU
6.2.16. Drawbacks of High Bandwidth Memory (HBM)
6.3. DDR Memory
6.3.1. Developments in double data rate (DDR) memory
6.3.2. DDR5 memory in AMD's 4th Gen EPYC processors for HPC workloads
6.3.3. DDR5 MRDIMM increases capacity and bandwidth for high CPU core counts
6.3.4. NVIDIA's Grace CPU uses LPDDR5X memory to lower power consumption
6.3.5. GDDR7 announced by major players targeting HPC and AI applications
6.3.6. Comparison of GDDR6 and GDDR7 modules
6.4. Memory Expansion
6.4.1. Samsung's CMM-D memory expansion for AI and datacenter server applications
6.4.2. Micron's CXL memory expansion modules for storage tiering in datacenters
6.5. Emerging memory technologies
6.5.1. Shortfalls of DRAM is driving research into next-generation memory solutions
6.5.2. Phase change memory and phase change materials for 3DXP
6.5.3. Selector only memory (SOM) for storage class memory solutions
6.5.4. Magnetic Random Access Memory (MRAM) can boost energy-efficiency
6.5.5. Resistive Random Access Memory (ReRAM)
6.6. Market and Outlook
6.6.1. DDR memory dominates CPUs whereas HBM is key to GPU performance
6.6.2. Memory bottlenecks are driving segmentation of memory hierarchy
6.6.3. Memory and Storage: market status and outlook
7. STORAGE FOR HPC
7.1. Overview
7.1.1. Flash storage is the leading storage technology for HPC and AI applications
7.1.2. HPC and AI require large-scale and high-performance data storage
7.1.3. Storage requirements varies depending on the AI workloads
7.1.4. Data movement through storage tiers in clusters for AI workloads
7.2. NAND Flash SSD Technologies for Datacenter and Enterprise
7.2.1. NAND Flash memory uses floating gates or charge traps to store data
7.2.2. Data center and enterprise SSD form factors transitioning towards EDSFF
7.2.3. SK Hynix - NAND technology development
7.2.4. SK Hynix: overcoming stacking limitations to increase capacity using 4D2.0
7.2.5. Examples of SK Hynix NAND Flash storage chips for AI and data centers
7.2.6. Solidigm (SK Hynix subsidiary) offers SSDs previously manufactured by Intel
7.2.7. Micron's 9550 SSDs are designed for AI-critical workloads with PCIe Gen5
7.2.8. Micron has a range of SSDs for applications in datacenters and AI
7.2.9. Example of SSD configurations and solutions for AI and HPC workloads
7.2.10. KIOXIA uses BiCS 3D FLASHTM Technology to increase storage density
7.2.11. KIOXIA offers a range of datacenter and enterprise SSD solutions
7.2.12. Samsung's 9th generation V-NAND technology is targeting AI applications
7.2.13. Intel's Optane SSD latency-sensitive solutions were designed for server caching
7.3. Technology Comparison and Trends
7.3.1. Increasing SSD capacity through emerging lower cost QLC NAND
7.3.2. QLC affords higher capacity at a lower cost per bit but with performance deficits
7.3.3. Step change in sequential read bandwidth with each generation of PCIe
7.3.4. Evolution of PCIe generations in the SSD market
7.3.5. SSDs performance for different datacenter and enterprise applications
7.3.6. SSDs for storage class memory bridging gap to volatile memory
7.3.7. Vertical stacking is unlikely to be the only factor in increasing storage density
7.3.8. Energy efficiency of SSD storage technologies for datacenter and enterprise
7.3.9. Examples of SSDs for AI workloads
7.4. Storage servers
7.4.1. HPE's Cray ClusterStor E1000 for HPC applications
7.4.2. Storage capacity of Cray ClusterStor E1000 is scalable according to configuration
7.4.3. NetApp offers all-flash storage systems for datacenters and enterprises
7.4.4. Examples of other all-Flash scalable storage systems
7.5. Players and Outlook
7.5.1. Examples of players in HPC storage
7.5.2. TRL of storage technologies for HPC Datacenter and Enterprise
8. ADVANCED SEMICONDUCTOR PACKAGING TO ENABLE HPC
8.1. Overview of Advanced Semiconductor Packaging Technologies
8.1.1. Progression from 1D to 3D semiconductor packaging
8.1.2. Key metrics for advanced semiconductor packaging performance
8.1.3. Four key factors of advanced semiconductor packaging
8.1.4. Overview of interconnection technique in semiconductor packaging
8.1.5. Overview of 2.5D packaging structure
8.1.6. 2.5D advanced semiconductor packaging technology portfolio
8.1.7. Evolution of bumping technologies
8.1.8. 3D advanced semiconductor packaging technology portfolio
8.2. How can advanced semiconductor packaging address these challenges?
8.2.1. Why traditional Moore's Law scaling cannot meet the growing needs for HPC
8.2.2. Key Factors affecting HPC datacenter performance
8.2.3. Advanced semiconductor packaging path for HPC
8.2.4. HPC chips integration trend - overview
8.2.5. HPC chips integration trend - explanation
8.2.6. Enhancing Energy Efficiency Through Hybrid Bonding Pitch Scaling
8.2.7. What is critical in packaging for AI & HPC
8.2.8. Future system-in-package architecture
8.3. Case studies
8.3.1. AMD Instinct MI300
8.3.2. AMD Instinct MI300 is being used for exascale supercomputing
8.3.3. 3D chip stacking using hybrid bonding - AMD
8.3.4. Advanced semiconductor packaging for Intel latest Xeon server CPU (1)
8.3.5. Xilinx FPGA packaging
8.3.6. Future packaging trend for chiplet server CPU
8.3.7. High-end commercial chips based on advanced semiconductor packaging technology (1)
8.3.8. High-end commercial chips based on advanced semiconductor packaging technology (2)
9. NETWORKING AND INTERCONNECT IN HPC
9.1. Overview
9.1.1. Introduction: networks in HPC
9.1.2. Switches: Key components in a modern data center
9.1.3. Why does HPC require high-performance transceivers?
9.1.4. Current AI system architecture
9.1.5. L1 backside compute architecture with Cu systems
9.1.6. Number of Cu wires in current AI system Interconnects
9.1.7. Limitations in current copper systems in AI
9.1.8. What is an Optical Engine (OE)
9.1.9. Integrated Photonic Transceivers
9.1.10. Nvidia's connectivity choices: Copper vs. optical for high-bandwidth systems
9.1.11. Pluggable optics vs CPO
9.1.12. L1 backside compute architecture with optical interconnect: Co-Packaged Optics (CPO)
9.1.13. Key CPO applications: Network switch and computing optical I/O
9.1.14. Design decisions for CPO compared to Pluggables
9.1.15. Power efficiency comparison: CPO vs. Pluggable optics vs. copper interconnects
9.1.16. Latency of 60cm data transmission technology benchmark
9.1.17. Future AI architecture predicted by IDTechEx
9.2. Optical on-device interconnects
9.2.1. On-device interconnects
9.2.2. Overcoming the von Neumann bottleneck
9.2.3. Electrical Interconnects Case Study: NVIDIA Grace Hopper for AI
9.2.4. Why improve on-device interconnects?
9.2.5. Improved Interconnects for Switches
9.2.6. Case Study: Ayer Labs TeraPHY
9.2.7. Case Study: Lightmatter's 'Passage' PIC-based Interconnect
9.3. Interconnect standards in HPC
9.3.1. The role of interconnect families in HPC
9.3.2. Lanes in interconnect
9.3.3. Comparing roadmaps
9.3.4. NVIDIA and the resurgence in InfiniBand interconnects
9.3.5. InfiniBand is more dominant when considering new-build HPCs
9.3.6. Intel, Cornelis Networks and Omni-Path
9.3.7. Cornelis Networks and the new Omni-Path CN5000 standard
9.3.8. Gigabit ethernet: the open standard for HPC interconnect
9.3.9. HPE Cray's Slingshot interconnect
9.4. Summary: Networking in HPC
9.4.1. Summary: networking for HPC
10. THERMAL MANAGEMENT FOR HPC
10.1. Increasing TDP Drives More Efficient Thermal Management
10.2. Historic Data of TDP - GPU
10.3. TDP Trend: Historic Data and Forecast Data - CPU
10.4. Data Center Cooling Classification
10.5. Cooling Methods Overview
10.6. Different Cooling on Chip Level
10.7. Cooling Technology Comparison
10.8. Cold Plate/Direct to Chip Cooling - Standalone Cold Plate
10.9. Liquid Cooling Cold Plates
10.10. Single and Two-Phase Cold Plate: Challenges
10.11. Single-Phase and Two-Phase Immersion - Overview (1)
10.12. Single and Two-Phase Immersion: Challenges
10.13. Coolant Comparison
10.14. Coolant Comparison - PFAS Regulations
10.15. Coolant Distribution Units (CDU)
10.16. Heat Transfer - Thermal Interface Materials (TIMs) (1)
10.17. Heat Transfer - Thermal Interface Materials (TIMs) (2)
11. COMPANY PROFILES
11.1. Accelsius — Two-Phase Direct-to-Chip Cooling
11.2. ACCRETECH (Grinding Tool)
11.3. AEPONYX
11.4. Amazon AWS Data Center
11.5. Amkor — Advanced Semiconductor Packaging
11.6. Arieca (2024)
11.7. Arieca (2020)
11.8. ASE — Advanced Semiconductor Packaging
11.9. Asperitas Immersed Computing
11.10. Calyos: Data Center Applications
11.11. Camtek
11.12. CEA-Leti (Advanced Semiconductor Packaging)
11.13. Ciena
11.14. Coherent: Photonic Integrated Circuit-Based Transceivers
11.15. Comet Yxlon
11.16. DELO: Semiconductor Packaging
11.17. EFFECT Photonics
11.18. Engineered Fluids
11.19. EU Chips Act — SemiWise
11.20. EVG (D Hybrid Bonding Tool)
11.21. GlobalFoundries
11.22. Green Revolution Cooling (GRC)
11.23. Henkel: microTIM and data centers
11.24. JCET Group
11.25. JSR Corporation
11.26. Kioxia
11.27. Lightelligence
11.28. Lightmatter
11.29. LioniX
11.30. LIPAC
11.31. LiquidCool Solutions — Chassis-Based Immersion Cooling
11.32. LiSAT
11.33. LPKF
11.34. Lumiphase
11.35. Micron
11.36. Mitsui Mining & Smelting (Advanced Semiconductor Packaging)
11.37. Nano-Join
11.38. NanoWired
11.39. NeoFan
11.40. Neurok Thermocon Inc
11.41. Parker Lord: Dispensable Gap Fillers
11.42. Resonac (RDL Insulation Layer)
11.43. Resonac Holdings
11.44. Samsung Electronics (Memory)
11.45. SK Hynix
11.46. Solidigm
11.47. Sumitomo Chemical Co, Ltd
11.48. Taybo (Shanghai) Environmental Technology Co, Ltd
11.49. TDK
11.50. TOK
11.51. TSMC (Advanced Semiconductor Packaging)
11.52. Tyson
11.53. Vertiv Holdings - Data Center Liquid Cooling
11.54. Vitron (Through-Glass Via Manufacturing) — A LPKF Trademark
11.55. ZutaCore

 

 

ページTOPに戻る

ご注文は、お電話またはWEBから承ります。お見積もりの作成もお気軽にご相談ください。

webからのご注文・お問合せはこちらのフォームから承ります

本レポートと同分野(半導体)の最新刊レポート

本レポートと同じKEY WORD()の最新刊レポート

  • 本レポートと同じKEY WORDの最新刊レポートはありません。

よくあるご質問


IDTechEx社はどのような調査会社ですか?


IDTechExはセンサ技術や3D印刷、電気自動車などの先端技術・材料市場を対象に広範かつ詳細な調査を行っています。データリソースはIDTechExの調査レポートおよび委託調査(個別調査)を取り扱う日... もっと見る


調査レポートの納品までの日数はどの程度ですか?


在庫のあるものは速納となりますが、平均的には 3-4日と見て下さい。
但し、一部の調査レポートでは、発注を受けた段階で内容更新をして納品をする場合もあります。
発注をする前のお問合せをお願いします。


注文の手続きはどのようになっていますか?


1)お客様からの御問い合わせをいただきます。
2)見積書やサンプルの提示をいたします。
3)お客様指定、もしくは弊社の発注書をメール添付にて発送してください。
4)データリソース社からレポート発行元の調査会社へ納品手配します。
5) 調査会社からお客様へ納品されます。最近は、pdfにてのメール納品が大半です。


お支払方法の方法はどのようになっていますか?


納品と同時にデータリソース社よりお客様へ請求書(必要に応じて納品書も)を発送いたします。
お客様よりデータリソース社へ(通常は円払い)の御振り込みをお願いします。
請求書は、納品日の日付で発行しますので、翌月最終営業日までの当社指定口座への振込みをお願いします。振込み手数料は御社負担にてお願いします。
お客様の御支払い条件が60日以上の場合は御相談ください。
尚、初めてのお取引先や個人の場合、前払いをお願いすることもあります。ご了承のほど、お願いします。


データリソース社はどのような会社ですか?


当社は、世界各国の主要調査会社・レポート出版社と提携し、世界各国の市場調査レポートや技術動向レポートなどを日本国内の企業・公官庁及び教育研究機関に提供しております。
世界各国の「市場・技術・法規制などの」実情を調査・収集される時には、データリソース社にご相談ください。
お客様の御要望にあったデータや情報を抽出する為のレポート紹介や調査のアドバイスも致します。



詳細検索

このレポートへのお問合せ

03-3582-2531

電話お問合せもお気軽に

 

2024/12/30 10:26

159.18 円

166.42 円

203.02 円

ページTOPに戻る