世界各国のリアルタイムなデータ・インテリジェンスで皆様をお手伝い

データセンター向けサーマルマネジメント 2023-2033


Thermal Management for Data Centers 2023-2033

AI、クラウドコンピューティング、暗号マイニングなどの分野で高性能コンピューティングの需要が高まる中、チップの熱設計電力(TDP)は過去16年間で大幅に上昇し、2006年から2022年にかけて4倍の増加を経験し... もっと見る

 

 

出版社 出版年月 電子版価格 ページ数 言語
IDTechEx
アイディーテックエックス
2023年6月12日 US$7,000
電子ファイル(1-5ユーザライセンス)
ライセンス・価格情報・注文方法はこちら
256 英語

日本語のページは自動翻訳を利用し作成しています。


 

サマリー

AI、クラウドコンピューティング、暗号マイニングなどの分野で高性能コンピューティングの需要が高まる中、チップの熱設計電力(TDP)は過去16年間で大幅に上昇し、2006年から2022年にかけて4倍の増加を経験しました。2023年には、IDTechExはIT負荷が750Wを超えるサーバーを観測しており、このTDPの上昇傾向は、マイクロ(サーバーボードとチップ)レベルとマクロ(データセンター)レベルの両方で、より効率的な熱管理システムの必要性を推進している。近年、大手データセンターユーザーは、様々な冷却ソリューションベンダーと協力し、革新的なパイロットプロジェクトを立ち上げ、すぐに使える冷却ソリューションを商品化しており、より効率的な冷却ソリューションを採用することで冷却性能を高め、持続可能な目標を達成することを目的としています。
 
IDTechExのデータセンター向け熱管理に関するレポートでは、データセンターの冷却技術をデータセンターの電力容量別に細分化した詳細な市場予測を掲載しています。また、データセンターのコンポーネント別のサーマルインターフェース材料(TIM)使用量の詳細な予測も行っています。
 
冷却の概要
データセンターの冷却方法は、採用する冷却媒体によって、空冷と液冷に大別されます。空冷は、エアコンやファンで風を送り、対流を利用してサーバーの熱を逃がします。長い実績があるため、広く採用されている。しかし、空気の比熱が低いため、冷却能力の要求に応えるのは難しい。また、データセンターでは、サーバー(一般的には1Uサーバー)を高密度に配置し、ラックスペースの利用率を最大化しようとするため、サーバー間の空隙が狭くなり、空冷の効率はさらに低下します。
 
一方、液冷は液体の比熱の高さを利用して、優れた冷却性能を発揮します。液体冷却は、液体がどの部品に接触するかによって、直接チップ/コールドプレート冷却、スプレー冷却、液浸冷却に分類される。チップ直下型冷却は、GPUやチップセットなどの熱源に直接冷却液を入れたコールドプレートを取り付け、その間にTIM(サーマルインターフェースマテリアル)を塗布します。コールドプレート冷却は、特定の構成によって、1.02から1.20の範囲の部分的電力使用効率(pPUE)を達成することができます。
 
サーバーを冷却液に完全に浸し、熱源と冷却液の直接接触を可能にすることで、1.01という最も低いpPUEで最高の冷却性能を達成する液浸冷却が、新たな選択肢となっています。しかし、複雑さ、専門知識の不足、高い初期費用(US$/Watt)といった課題から、その普及はまだ限定的である。しかし、液浸冷却は長期的なエネルギー節約の可能性を秘めており、エネルギー危機という現在の状況を考えると経済的に有益であるだけでなく、大企業が長期的にエネルギー節約と持続可能性の目標を達成するのに役立ちます。IDTechExによる従来の空冷と液浸冷却の総所有コスト(TCO)の比較分析によると、レポートに記載されている前提条件下で、液浸冷却の投資回収期間は約2.2年であることが判明しています。また、本レポートでは、データセンターのエンドユーザーと液浸冷却ベンダーとの戦略的提携やパイロットプロジェクト、液浸冷却の普及を阻むその他の障害についても紹介しています。空冷、コールドプレート、液浸冷却について、2033年までの市場導入と収益予測を示しています。
 
液冷は、単相冷却と二相冷却に分類することができます。一般に二相冷却はより高い効果を示しますが、パーフルオロアルキルおよびポリフルオロアルキル物質(PFAS)に基づく二相浸漬冷却液に関する規制、相変化時の圧力上昇に耐える液体容器の機械強度要件、気化による液体損失、高いメンテナンスコストなどの課題があります。本レポートでは、さまざまな液冷ベンダー、冷却液サプライヤー、データセンターのエンドユーザーについて分析し、単相および二相のダイレクト・トゥ・チップ/コールドプレートおよび液浸冷却に関連する機会と脅威についての洞察を提供します。
 
データセンター向け冷却ソリューションのベンチマーク分析。
出典:IDTechEx
 
IDTechExでは、データセンターの電力容量の増加、ハイパースケールデータセンターの台頭、すぐに使える液体冷却ソリューションの提供などの要因から、液体冷却の採用が急速に進むと予測しています。特に、コールドプレート冷却は、その費用対効果と既存の空冷式データセンターとの互換性により、液浸冷却ソリューションに対応するための大規模な改修の必要がないため、最大の成長を遂げると予想されます。
本レポートでは、これらの予測に基づき、データセンターにおける液冷関連ハードウェアの10年間の売上予測を、データセンターのIT電源容量の階層別に詳細に示しています。
 
市場機会
液冷の採用が進むにつれ、新たなビジネスチャンスが生まれ、データセンターの冷却サプライチェーンに関わる企業間の連携が強化されつつあります。冷却液分配ユニット(CDU)ベンダー、ポンプベンダー、冷却液サプライヤーなどのコンポーネントサプライヤーは、液冷の採用拡大から利益を得ることが期待されます。CDUとポンプは、液冷システムの流量を制御するための重要なコンポーネントです。材料の互換性や圧力損失などの要因を慎重に考慮する必要がある。本レポートでは、さまざまな市販のインラックおよびインローCDUを紹介するとともに、動的粘度、密度、比熱、熱伝導率、必要なパイプ長およびパイプ径に基づく冷却液の包括的な比較を行っている。また、今後10年間のデータセンター業界におけるCDUとポンプの予測も行っています。
 
本レポートの主な内容
空冷
ダイレクト・ツー・チップ/コールド・プレート・クーリング
ループヒートパイプ
単相液浸
二相浸漬
冷却水の比較と規制
冷却水分配装置(CDU)およびポンプ
サーマルインターフェイス材料
2023年から2043年までの10年間のデータセンター向け冷却の市場規模予測
データセンターで使用されるCDUの10年間の販売台数。

 



ページTOPに戻る


目次

1. エグゼクティブサマリー
1.1. GPUの熱設計電力(TDP)の推移
1.2. 冷却方式の概要
1.3. 冷却方式別年間売上高予測:2016年~2033年
1.4. エアークーリング
1.5. Yearly Revenueのエアークーリング Forecast by Data Center Capacity:2016-2033
1.6. 液冷-Direct-to-Chip/Cold-PlateとImmersion。
1.7. 液冷-単相・二相の場合
1.8. コールドプレート/Direct-to-Chip Coolingの収益予測:2016-2033
1.9. 液浸冷却の収益予測 2016-2033
1.10. 液冷のための部品選定
1.11. クーラント比較
1.12. クーラント比較 - PFAS規制
1.13. クーラントディストリビューションユニット(CDU)
1.14. 年間CDU販売台数予測:2017-2033
1.15. 熱伝導 - 熱界面材料(TIM) (1)
1.16. 熱伝導 - 熱界面材料(TIMs) (2)
1.17. データセンターコンポーネント別年間TIM面積予測:2021-2034年
2. イントロダクション
2.1. データセンターの概要
2.1.1. データセンター入門
2.1.2. データセンターのデモグラフィック
2.1.3. データセンター機器 - トップレベルの概要
2.1.4. データセンターのサーバーラックとサーバー構造
2.1.5. 電力使用効果
2.1.6. データセンターのスイッチトポロジー - 3層とスパインリーフアーキテクチャ
2.1.7. K-aryファットツリートポロジー
2.2. データセンター向けサーマルマネジメントの概要
2.2.1. データセンターにおける熱管理の必要性
2.2.2. データセンターのダウンタイムがもたらす重大な影響
2.2.3. データセンターの立地選択
2.2.4. 熱設計電力(TDP)の増加で、より効率的な熱対策が可能になる
2.2.5. データセンターにおける熱管理手法の概要
2.2.6. サーマルマネージメントカテゴライズ
3. サーマル・デザイン・パワー(TDP)の進化
3.1. TDPは時間と共に増加する-GPU
3.2. サーバボードのTDPが増加 - ムーアの法則
4. 熱管理方法
4.1. 概要
4.1.1. データセンターの冷却分類の紹介
4.1.2. 冷却技術の比較 (1)
4.1.3. 冷却技術の比較(2)
4.1.4. エアークーリング
4.1.5. ハイブリッド型液冷・空冷
4.1.6. ハイブリッド液冷システム
4.1.7. ハイブリッド型液冷式冷却装置
4.1.8. ハイブリッド冷媒間冷却装置
4.1.9. サーバーボード数予測-方法論 (1)
4.1.10. サーバーボード番号 - 方法
4.1.11. データセンター電力予報
4.1.12. データセンター番号
4.1.13. データセンターの容量による冷却の分類 (1)
4.1.14. データセンターの容量による冷却の分類(2)
4.1.15. データセンター番号容量別予測:2016年~2033年
4.2. エアークーリング
4.2.1. 入門編エアークーリング (1)
4.2.2. 入門編エアークーリング (2)
4.2.3. 空冷方式の利点と欠点
4.2.4. ユースケース列レベルの冷却 Liebert® CRV CRD25
4.2.5. 概要: RDHx
4.2.6. ハイブリッド空冷式液体冷却装置 - nVent
4.2.7. 冷却塔 - 断熱冷却方式
4.2.8. 水使用と電力使用のバランス-ケースバイケースで実践していること
4.2.9. ユースケースジャッジ - 断熱・ハイブリッド型ドライクーラー
4.2.10. Trend forエアークーリング in Data Centers
4.2.11. SWOTまたはエアークーリング
4.3. 予想
4.3.1. 予測 - 空冷式データセンター - ハイパースケール
4.3.2. 空冷式データセンター台数予測:2016-2033
4.3.3. TCO比較
4.3.4. 容量20MW未満のデータセンター向け配電設備
4.3.5. Air-Cooledデータセンター電力予報2016-2033
4.3.6. Data Centers Usingエアークーリング Forecast2016-2033
4.3.7. Data Centers Usingエアークーリング Forecast by Data Center Power2016-2033
4.3.8. エアークーリング年間売上高予測 2016-2033
4.3.9. Data Centers withエアークーリング Only Revenue Forecast2016-2033
4.4. 液冷式
4.4.1. 液冷と液浸冷却
4.4.2. 液冷技術の比較 (1)
4.4.3. 液冷技術の比較(2)
4.5. コールドプレート
4.5.1. 概要
4.5.2. 単相コールドプレート
4.5.3. 二層式コールドプレート
4.5.4. コールドプレート予想
4.5.5. コールドプレートクーリングの概要
4.6. スプレー冷却
4.6.1. 入門編スプレー冷却
4.6.2. アドバンスド・リキッド・クーリング・テクノロジーズ(ALCT)-。スプレー冷却
4.7. 液浸冷却
4.7.1. Single-Phase and Two-Phase Immersion -概要 (1)
4.7.2. Single-Phase液浸冷却 (2)
4.7.3. SWOT:単相液浸冷却
4.7.4. 使用例:アイスオトープ
4.7.5. ユースケースグリーンレボリューションクーリング(GRC)
4.7.6. 概要:二相液浸冷却
4.7.7. SWOT:二相液浸冷却
4.7.8. Wieland - 二相性液浸冷却
4.7.9. 二相冷却-離陸開始前にフェーズアウト?
4.7.10. ツーフェーズのロードマップ液浸冷却
4.7.11. 単相のロードマップ液浸冷却
4.7.12. 例イマージョン
4.7.13. ユースケース:IceotopeとMeta
4.7.14. 使用例:マイクロソフト
4.7.15. アスペリタス
4.7.16. ギガバイト
4.7.17. まとめ(1) ~のメリット液浸冷却
4.7.18. まとめ(2) - 挑戦すること液浸冷却
4.7.19. コスト削減の比較 - イマージョンとエアークーリング
4.7.20. 液冷方式の比較
4.7.21. Pricingの Direct-to-Chip, Immersion andエアークーリング - US$/Watt
4.7.22. Total Costの Ownership (TCO) Comparison:エアークーリング and Immersion (1)
4.7.23. Total Costの Ownership (TCO) Comparison:エアークーリング and Immersion (2)
4.7.24. Forecastの Server Boards - Capacity>143MW:2016-2033
4.7.25. Immersion Yearly Revenue Forecast - Capacity>143MW:2016-2033
4.7.26. Immersion Cumulative Revenue Forecast - Capacity>143MW:2016-2033
4.8. クーラント
4.8.1. 入門編冷却液
4.8.2. クーラント液剤の比較
4.8.3. トレンド - フッ素系化学物質が減少?
4.8.4. Immersionクーラント Liquid Suppliers
4.8.5. エンジニアード・フルイド - なぜオイルより優れているのか?
4.8.6. What is the Roadmap forクーラント in Two-Phase Immersion?
4.8.7. Demand for Immersionクーラント Standardization - FOMs
4.8.8. フィギア・オブ・メリット(FOM)
4.8.9. 単相浸漬のための力対流FOM
4.8.10. FOM3 - 圧力損失のための粘度
4.8.11. 密度
4.9. パートナーシップ
4.9.1. インテルとサブマー - 熱の再利用と液浸冷却
4.9.2. アイスオトープ、インテル、HPE
4.9.3. Iceotope、Schneider Electric、Avnet - 液冷式データセンター
4.9.4. GRCとインテル
4.9.5. GRCとデル - エッジデプロイメント
4.9.6. アイスオトープとメタ
4.9.7. Developmentの New Immersionクーラント - ElectroSafe
5. 冷却水分配器(Cdus)
5.1. はじめに
5.1.1. 概要 - (1)
5.1.2. 概要 - (2)
5.1.3. 冗長性(リダンダンシー - (1)
5.1.4. 冗長性(リダンダンシー - (2)
5.1.5. 概要CDUの - ティアダウン
5.1.6. Liquid-to-Liquid(L2L) CDUs
5.1.7. 液体対空気用CDU
5.1.8. 液-液、液-空冷却のまとめ
5.1.9. Vertiv - Liebert® XDU 60 熱交換器およびCDU - (1)
5.1.10. Vertiv - Liebert® XDU熱交換器とCDU。 - (2)
5.1.11. CDU - nVent
5.1.12. CDU - CoolIT - ティアダウン (1)
5.1.13. CDU - CoolIT - ティアダウン (2)
5.1.14. CDU - CoolIT - ティアダウン (3)
5.1.15. CDU Teardown - Motivair
5.1.16. Yearly CDUs Sales Number Forecast:2017-2033
5.2. メインポンプ
5.2.1. 概要
5.2.2. Yearly Pumps Sales Number Forecast:2017-2033
5.3. フィルタリング
5.3.1. 概要
5.3.2. フィルター-模式図
5.3.3. フィルター
5.4. センサー
5.4.1. 概要のセンサー
5.4.2. Leakage Detectionセンサー -概要
5.4.3. Leakage Detectionセンサー on Server Nodes (1)
5.4.4. Leakage Detectionセンサー on Server Nodes (2)
5.5. 熱の再利用
5.5.1. 概要の the熱の再利用 in Data Center Cooling
5.5.2. ユースケースアマゾンデータセンター熱の再利用
5.5.3. Facebook(ナウメタ)データセンター熱の再利用
5.5.4. テンセント-天津データセンターの熱を市街地暖房に利用
5.5.5. 投資対効果の熱の再利用
5.5.6. その他の例の熱の再利用
6. 熱伝導 - 熱界面材料(TIMS)
6.1. 概要
6.1.1. データセンターにおけるサーマルインターフェース材料
6.1.2. Common Typesの TIMs in Data Centers - Line Card Level
6.1.3. データセンターにおけるTIM - ラインカードレベル - トランシーバ
6.1.4. サーバーボードに搭載されたTIM
6.1.5. サーバーボードレイアウト
6.1.6. データセンター向けTIM - サーバーボード、スイッチ、ルーター
6.1.7. データセンタースイッチのプレーヤー
6.1.8. How TIMs are Used in Data Center Switches - FS N8560-32C32x100GbE Switch
6.1.9. WS-SUP720 Supervisor720モジュール
6.1.10. Ubiquiti UniFi USW-Leaf スイッチ
6.1.11. FS S5850-48S6Q 48x10GbE and 6x 40GbE Switch
6.1.12. Cisco Nexus 7700 Supervisor2E module
6.1.13. 電源コンバーター用TIM (1):AC-DCとDC-DC
6.1.14. データセンター用電源システム
6.1.15. データセンター用電源のTIM (2)
6.1.16. データセンター用電源のTIM (3)
6.1.17. データセンター用電源のTIM (4)
6.1.18. データセンター用電源におけるTIMの使われ方 (5)
6.1.19. データセンター電源におけるTIMの使われ方 (6)
6.1.20. データセンター向けTIM - 電源コンバーター
6.1.21. TIMフォームの違い - (1)
6.1.22. TIMフォームの違い - (2)
6.1.23. 新素材・高柔軟性積層板(1)
6.1.24. 新素材・高柔軟性積層板(2)
6.1.25. データセンターにおけるTIMの動向
6.1.26. サーバーボードのTIM面積の見積もりについて
6.1.27. Servers Number Forecast:2021-2034
6.1.28. Total TIM Area in Server Boards Forecast:2021-2034
6.1.29. Data Center Switches Number Forecast:2021-2034
6.1.30. Areaの TIM per Switch
6.1.31. リーフ&スパインスイッチ用TIMエリア
6.1.32. リーフ&スパインスイッチ用TIMエリア Forecast:2021-2034
6.1.33. データセンター用電源のTIM消費量について
6.1.34. Numberの Power Supplies Forecast and TIM Area Forecast:2021-2034
6.1.35. Forecast summary - TIM Area for Different Data Center Components:2021-2034
6.2. 概要
6.2.1. Cooling Methods Cumulative Revenue Forecast2016-2033
6.2.2. Cooling Methods Yearly Revenue Forecast2017-2033
6.2.3. Numberの Air-Cooled Data Centers Forecast:2016-2033
6.2.4. Hyperscale - Air + Liquid Cooling Forecast2016-2033
6.2.5. Power Forecast for Data Centers with Power <20MW
6.2.6. エアークーリング Revenue Forecast:2016-2033

 

 

ページTOPに戻る


 

Summary

この調査レポートでは、2023-2033年のデータセンターの冷却技術をデータセンターの電力容量別に細分化した詳細な市場予測や、データセンターのコンポーネント別のサーマルインターフェース材料(TIM)使用量の詳細な予測を掲載しています。
 
主な掲載内容(目次より抜粋)
  • サーマル・デザイン・パワー(TDP)の進化
  • サーマルマネジメント手法
  • クーラントディストリビューションユニット(Cdus)
  • 熱伝導 - 熱界面材料(TIMS)
 
Report Summary
With the increasing demand for high-performance computing in sectors like AI, cloud computing, and crypto mining, the thermal design power (TDP) of chips has risen significantly over the past 16 years, experiencing a four-fold increase from 2006 to 2022. In 2023, IDTechEx has observed servers with IT loads exceeding 750W and this upward trend in TDP has propelled a need for more efficient thermal management systems at both the micro (server board and chip) and macro (data center) levels. In recent years, leading data center users have collaborated with various cooling solution vendors to launch innovative pilot projects and commercialize ready-to-use cooling solutions, aiming to enhance cooling performance and meet sustainability targets by adopting more efficient cooling solutions.
 
IDTechEx's report on Thermal Management for Data Centers covers a granular market forecast of data center cooling technologies segmented by data center power capacity. The report also provides a granular forecast of thermal interface materials (TIMs) usage by data center component.
 
Cooling Overview
Data center cooling methods can be broadly categorized into air cooling and liquid cooling, depending on the cooling medium employed. Air cooling relies on air conditioning and/or fans to blow air, utilizing convection to dissipate heat from the servers. It has been widely adopted due to its long and successful track record. However, the low specific heat of air makes it challenging to meet the increasing cooling capacity requirements. Additionally, as data center users strive to maximize rack space utilization by densely packing servers (typically 1U servers), the air gaps between servers become narrower, which further reduces the efficiency of air cooling.
 
Liquid cooling, on the other hand, takes advantage of the higher specific heat of liquid to achieve superior cooling performance. Depending on the which components the fluids contact, liquid cooling can be classified into direct-to-chip/cold plate cooling, spray cooling, and immersion cooling. Direct-to-chip cooling involves mounting a cold plate with coolant fluid directly on top of heat sources such as GPUs and chipsets, with a thermal interface material (TIM) applied in between. Cold plate cooling can achieve a partial power use effectiveness (pPUE) ranging from 1.02 to 1.20, depending on the specific configuration.
 
An emerging alternative is immersion cooling where the servers are fully submerged in coolant fluids, enabling direct contact between the heat sources and the coolant, thereby achieving the best cooling performance with the lowest pPUE of 1.01. However, its widespread adoption is still limited due to challenges such as complexity, limited industry expertise, and high upfront costs (in terms of US$/Watt). Nevertheless, immersion cooling holds potential for long-term energy savings, which is not only economically beneficial given the current context of energy crisis but also helps the large companies to achieve their energy saving and sustainability goals in the long run. IDTechEx's comparative analysis of the total cost of ownership (TCO) between traditional air cooling and immersion cooling reveals that the payback time for immersion cooling is approximately 2.2 years, subject to the assumptions listed in the report. This report also highlights strategic collaborations and pilot projects between data center end-users and immersion cooling vendors, as well as other barriers hindering the widespread adoption of immersion cooling. Market adoption and revenue forecasts are provided for air, cold-plate, and immersion cooling through to 2033.
 
Liquid cooling can also be classified into single-phase and two-phase cooling. Two-phase cooling generally exhibits greater effectiveness, but it also presents challenges such as regulations regarding two-phase immersion cooling fluids based on perfluoroalkyl and polyfluoroalkyl substances (PFAS), mechanical strength requirements for fluid containers to withstand increased pressure during phase changes, fluid loss due to vaporization, and high maintenance costs. This report provides an analysis of different liquid cooling vendors, coolant fluid suppliers, and data center end-users, offering insights into the opportunities and threats associated with single-phase and two-phase direct-to-chip/cold plate and immersion cooling.
 
Source: Benchmarking analysis of cooling solutions for data centers. Source: IDTechEx
 
IDTechEx anticipates rapid growth in the adoption of liquid cooling, driven by factors such as the increasing power capacity of data centers, the rise of hyperscale data centers, and the availability of ready-to-use liquid cooling solutions. Specifically, cold plate cooling is expected to experience the largest growth due to its cost effectiveness and compatibility with existing air-cooled data centers, eliminating the need for extensive retrofitting to accommodate immersion cooling solutions.
In line with these projections, this report offers a detailed 10-year revenue forecast for hardware related to liquid cooling in data centers segmented by different tiers of data center IT power capacity.
 
Market Opportunities
With greater adoption of liquid cooling, new opportunities are emerging, leading to strengthened collaborations among companies involved in the data center cooling supply chain. Component suppliers such as coolant distribution units (CDUs) vendors, pump vendors, and coolant fluid suppliers are expected benefit from the increased adoption of liquid cooling. CDUs and pumps are critical components for controlling the flow rate in liquid cooling systems. Factors such as material compatibility and pressure drop need to be carefully considered. This report introduces various commercial in-rack and in-row CDUs, accompanied by a comprehensive comparison of coolant fluids based on their dynamic viscosity, density, specific heat, thermal conductivity, as well as required pipe length and pipe diameter. The report also provides a forecast of CDUs and pumps in the data center industry for the next 10 years.
 
Key aspects of this report
Air Cooling
Direct-to-Chip/Cold Plate Cooling
Loop Heat Pipe
Single-Phase Immersion
Two-Phase Immersion
Coolant Comparison and Regulations
Coolant Distribution Units (CDUs) and Pumps
Thermal Interface Materials
10 year market size forecast of data center cooling from 2023 to 2043
10 year unit sales of CDUs used in data center.
 
Report Metrics Details
Historic Data 2016 - 2022
CAGR Data Center Cooling Market Exhibits 13.4% CAGR over the next 10 years.
Forecast Period 2023 - 2033
Forecast Units US$, m{^2}, units
Regions Covered Worldwide
Segments Covered Hyperscale Data Centers, Air Cooling (Fan Walls, Rear Door Heat Exchanger, Cooling Tower and Chiller), Single-Phase Direct-to-Chip/Cold Plate Cooling, Two-Phase Loop heat Pipe, Single-Phase Immersion Cooling, Two-Phase Immersion Cooling, Coolant, Heat Reuse, Coolant Distribution Units (CDUs), Thermal Interface Materials (TIMs).

 



ページTOPに戻る


Table of Contents

1. EXECUTIVE SUMMARY
1.1. Trend of Thermal Design Power (TDP) of GPUs
1.2. Cooling Methods Overview
1.3. Yearly Revenue Forecast by Cooling Approach: 2016-2033
1.4. Air Cooling
1.5. Yearly Revenue of Air Cooling Forecast by Data Center Capacity: 2016-2033
1.6. Liquid Cooling - Direct-to-Chip/Cold Plate and Immersion
1.7. Liquid Cooling - Single-Phase and Two-Phase
1.8. Cold Plate/Direct-to-Chip Cooling Revenue Forecast: 2016-2033
1.9. Immersion Cooling Revenue Forecast 2016-2033
1.10. Component Selection For Liquid Cooling
1.11. Coolant Comparison
1.12. Coolant Comparison - PFAS Regulations
1.13. Coolant Distribution Units (CDU)
1.14. Yearly CDU Sales Number Forecast: 2017-2033
1.15. Heat Transfer - Thermal Interface Materials (TIMs) (1)
1.16. Heat Transfer - Thermal Interface Materials (TIMs) (2)
1.17. Yearly TIM Area Forecast by Data Center Component: 2021-2034
2. INTRODUCTION
2.1. Data Center Overview
2.1.1. Introduction to Data Centers
2.1.2. Data Center Demographics
2.1.3. Data Center Equipment - Top Level Overview
2.1.4. Data Center Server Rack and Server Structure
2.1.5. Power Use Effectiveness
2.1.6. Data Center Switch Topology - Three Layer and Spine-Leaf Architecture
2.1.7. K-ary Fat Tree Topology
2.2. Thermal Management for Data Centers Overview
2.2.1. Thermal Management Needs for Data Centers
2.2.2. Significant Consequences for Data Center Downtime
2.2.3. Data Center Location Choice
2.2.4. Increasing Thermal Design Power (TDP) Drives More Efficient Thermal Management
2.2.5. Overview of Thermal Management Methods for Data Centers
2.2.6. Thermal Management Categorization
3. THERMAL DESIGN POWER (TDP) EVOLUTION
3.1. TDP Increases Over Time - GPU
3.2. Server Boards TDP Increases - Moore's Law
4. THERMAL MANAGEMENT METHODS
4.1. Overview
4.1.1. Introduction to Data Center Cooling Classification
4.1.2. Cooling Technology Comparison (1)
4.1.3. Cooling Technology Comparison (2)
4.1.4. Air Cooling
4.1.5. Hybrid Liquid-to-Air Cooling
4.1.6. Hybrid Liquid-to-Liquid Cooling
4.1.7. Hybrid Liquid-to-Refrigerant Cooling
4.1.8. Hybrid Refrigerant-to-Refrigerant Cooling
4.1.9. Server Board Number Forecast - Methodology (1)
4.1.10. Server Board Number - Methodology
4.1.11. Data Center Power Forecast
4.1.12. Data Center Number
4.1.13. Cooling Categorization By Data Center Capacity (1)
4.1.14. Cooling Categorization By Data Center Capacity (2)
4.1.15. Data Center Number Forecast by Capacity: 2016-2033
4.2. Air Cooling
4.2.1. Introduction to Air Cooling (1)
4.2.2. Introduction to Air Cooling (2)
4.2.3. Benefits and Drawbacks of Air-Cooling Methods
4.2.4. Use Case: Row-Level Cooling Liebert® CRV CRD25
4.2.5. Overview: RDHx
4.2.6. Hybrid Air-to-Liquid Cooling - nVent
4.2.7. Cooling Tower - Adiabatic Cooling
4.2.8. Balance Between Water Use and Power Use - Case by Case in Practice
4.2.9. Use Case: Jaeggi - Adiabatic and Hybrid Dry Coolers
4.2.10. Trend for Air Cooling in Data Centers
4.2.11. SWOT of Air Cooling
4.3. Forecasts
4.3.1. Forecast - Air-Cooled Data Center - Hyperscale
4.3.2. Air-Cooled Data Centers Number Forecast: 2016-2033
4.3.3. TCO Comparison
4.3.4. Power Distribution for Data Center with Capacity <20MW
4.3.5. Air-Cooled Data Center Power Forecast 2016-2033
4.3.6. Data Centers Using Air Cooling Forecast 2016-2033
4.3.7. Data Centers Using Air Cooling Forecast by Data Center Power 2016-2033
4.3.8. Air Cooling Yearly Revenue Forecast 2016-2033
4.3.9. Data Centers with Air Cooling Only Revenue Forecast 2016-2033
4.4. Liquid cooling
4.4.1. Liquid Cooling and Immersion Cooling
4.4.2. Comparison of Liquid Cooling Technologies (1)
4.4.3. Comparison of Liquid Cooling Technologies (2)
4.5. Cold Plates
4.5.1. Overview
4.5.2. Single-Phase Cold Plate
4.5.3. Two-Phase Cold Plate
4.5.4. Cold Plate Forecast
4.5.5. Summary of Cold Plate Cooling
4.6. Spray Cooling
4.6.1. Introduction to Spray Cooling
4.6.2. Advanced Liquid Cooling Technologies (ALCT) - Spray Cooling
4.7. Immersion Cooling
4.7.1. Single-Phase and Two-Phase Immersion - Overview (1)
4.7.2. Single-Phase Immersion Cooling (2)
4.7.3. SWOT: Single-Phase Immersion Cooling
4.7.4. Use Case: Iceotope
4.7.5. Use Case: Green Revolution Cooling (GRC)
4.7.6. Overview: Two-Phase Immersion Cooling
4.7.7. SWOT: Two-Phase Immersion Cooling
4.7.8. Wieland - Two-Phase Immersion Cooling
4.7.9. Two-Phase Cooling - Phase Out Before Starting to Take Off?
4.7.10. Roadmap of Two-Phase Immersion Cooling
4.7.11. Roadmap of Single-Phase Immersion Cooling
4.7.12. Examples: Immersion
4.7.13. Use-Case: Iceotope and Meta
4.7.14. Use-Case: Microsoft
4.7.15. Asperitas
4.7.16. Gigabyte
4.7.17. Summary (1) - Benefits of Immersion Cooling
4.7.18. Summary (2) - Challenges of Immersion Cooling
4.7.19. Cost Saving Comparison - Immersion and Air Cooling
4.7.20. Comparison of Liquid Cooling Methods
4.7.21. Pricing of Direct-to-Chip, Immersion and Air Cooling - US$/Watt
4.7.22. Total Cost of Ownership (TCO) Comparison: Air Cooling and Immersion (1)
4.7.23. Total Cost of Ownership (TCO) Comparison: Air Cooling and Immersion (2)
4.7.24. Forecast of Server Boards - Capacity>143MW: 2016-2033
4.7.25. Immersion Yearly Revenue Forecast - Capacity>143MW: 2016-2033
4.7.26. Immersion Cumulative Revenue Forecast - Capacity>143MW: 2016-2033
4.8. Coolant
4.8.1. Introduction to Cooling Fluid
4.8.2. Coolant Fluid Comparison
4.8.3. Trend - Decline in Fluorinated Chemicals?
4.8.4. Immersion Coolant Liquid Suppliers
4.8.5. Engineered Fluids - Why Better Than Oils
4.8.6. What is the Roadmap for Coolant in Two-Phase Immersion?
4.8.7. Demand for Immersion Coolant Standardization - FOMs
4.8.8. Figures of Merit (FOM)
4.8.9. Force Convection FOM for Single-Phase Immersion
4.8.10. FOM3 - Viscosity for Pressure Drop
4.8.11. Density
4.9. Partnerships
4.9.1. Intel and Submer - Heat Reuse and Immersion Cooling
4.9.2. Iceotope, Intel and HPE
4.9.3. Iceotope, Schneider Electric, and Avnet - Liquid Cooled Data Center
4.9.4. GRC and Intel
4.9.5. GRC and Dell - Edge Deployment
4.9.6. Iceotope and Meta
4.9.7. Development of New Immersion Coolant - ElectroSafe
5. COOLANT DISTRIBUTION UNITS (CDUS)
5.1. Introduction
5.1.1. Overview - (1)
5.1.2. Overview - (2)
5.1.3. Redundancy - (1)
5.1.4. Redundancy - (2)
5.1.5. Overview of CDU - Teardown
5.1.6. Liquid-to-Liquid (also known as L2L) CDUs
5.1.7. Liquid-to-Air CDUs
5.1.8. Summary of Liquid-to-Liquid and Liquid-to-Air Cooling
5.1.9. Vertiv - Liebert® XDU 60 Heat Exchanger and CDU - (1)
5.1.10. Vertiv - Liebert® XDU Heat Exchanger and CDU - (2)
5.1.11. CDU - nVent
5.1.12. CDU - CoolIT - Teardown (1)
5.1.13. CDU - CoolIT - Teardown (2)
5.1.14. CDU - CoolIT - Teardown (3)
5.1.15. CDU Teardown - Motivair
5.1.16. Yearly CDUs Sales Number Forecast: 2017-2033
5.2. Main Pump
5.2.1. Overview
5.2.2. Yearly Pumps Sales Number Forecast: 2017-2033
5.3. Filtering
5.3.1. Overview
5.3.2. Filters - Schematic Drawing
5.3.3. Filters
5.4. Sensors
5.4.1. Overview of Sensors
5.4.2. Leakage Detection Sensors - Overview
5.4.3. Leakage Detection Sensors on Server Nodes (1)
5.4.4. Leakage Detection Sensors on Server Nodes (2)
5.5. Heat Reuse
5.5.1. Overview of the Heat Reuse in Data Center Cooling
5.5.2. Use Case: Amazon Data Center Heat Reuse
5.5.3. Facebook (Now Meta) Data Center Heat Reuse
5.5.4. Tencent - Tianjin Data Center Heat For Municipal Heating
5.5.5. Return on Investment of Heat Reuse
5.5.6. More Examples of Heat Reuse
6. HEAT TRANSFER - THERMAL INTERFACE MATERIALS (TIMS)
6.1. Overview
6.1.1. Thermal Interface Materials in Data Centers
6.1.2. Common Types of TIMs in Data Centers - Line Card Level
6.1.3. TIMs in Data Centers - Line Card Level - Transceivers
6.1.4. TIMs in Server Boards
6.1.5. Server Board Layout
6.1.6. TIMs for Data Center - Server Boards, Switches and Routers
6.1.7. Data Center Switch Players
6.1.8. How TIMs are Used in Data Center Switches - FS N8560-32C 32x 100GbE Switch
6.1.9. WS-SUP720 Supervisor 720 Module
6.1.10. Ubiquiti UniFi USW-Leaf Switch
6.1.11. FS S5850-48S6Q 48x 10GbE and 6x 40GbE Switch
6.1.12. Cisco Nexus 7700 Supervisor 2E module
6.1.13. TIMs for Power Supply Converters (1): AC-DC and DC-DC
6.1.14. Data Center Power Supply System
6.1.15. TIMs for Data Center Power Supplies (2)
6.1.16. TIMs for Data Center Power Supplies (3)
6.1.17. TIMs in Data Center Power Supplies (4)
6.1.18. How TIMs are Used in Data Center Power Supplies (5)
6.1.19. How TIMs are Used in data center power supply (6)
6.1.20. TIMs for Data Centers - Power Supply Converters
6.1.21. Differences Between TIM Forms - (1)
6.1.22. Differences Between TIM Forms - (2)
6.1.23. Novel material - Laminar Metal Form with High Softness (1)
6.1.24. Novel material - Laminar Metal Form with High Softness (2)
6.1.25. TIM Trends in Data Centers
6.1.26. Estimating the TIM Areas in Server Boards
6.1.27. Servers Number Forecast: 2021-2034
6.1.28. Total TIM Area in Server Boards Forecast: 2021-2034
6.1.29. Data Center Switches Number Forecast: 2021-2034
6.1.30. Area of TIM per Switch
6.1.31. TIM Area for Leaf and Spine Switch
6.1.32. TIM Area for Leaf and Spine Switch Forecast: 2021-2034
6.1.33. TIM Consumption in Data Center Power Supplies
6.1.34. Number of Power Supplies Forecast and TIM Area Forecast: 2021-2034
6.1.35. Forecast summary - TIM Area for Different Data Center Components: 2021-2034
6.2. Summary
6.2.1. Cooling Methods Cumulative Revenue Forecast 2016-2033
6.2.2. Cooling Methods Yearly Revenue Forecast 2017-2033
6.2.3. Number of Air-Cooled Data Centers Forecast: 2016-2033
6.2.4. Hyperscale - Air + Liquid Cooling Forecast 2016-2033
6.2.5. Power Forecast for Data Centers with Power < 20MW
6.2.6. Air Cooling Revenue Forecast: 2016-2033

 

 

ページTOPに戻る

ご注文は、お電話またはWEBから承ります。お見積もりの作成もお気軽にご相談ください。

webからのご注文・お問合せはこちらのフォームから承ります

本レポートと同分野の最新刊レポート

  • 本レポートと同分野の最新刊レポートはありません。

本レポートと同じKEY WORD(cooling)の最新刊レポート

  • 本レポートと同じKEY WORDの最新刊レポートはありません。

よくあるご質問


IDTechEx社はどのような調査会社ですか?


IDTechExはセンサ技術や3D印刷、電気自動車などの先端技術・材料市場を対象に広範かつ詳細な調査を行っています。データリソースはIDTechExの調査レポートおよび委託調査(個別調査)を取り扱う日... もっと見る


調査レポートの納品までの日数はどの程度ですか?


在庫のあるものは速納となりますが、平均的には 3-4日と見て下さい。
但し、一部の調査レポートでは、発注を受けた段階で内容更新をして納品をする場合もあります。
発注をする前のお問合せをお願いします。


注文の手続きはどのようになっていますか?


1)お客様からの御問い合わせをいただきます。
2)見積書やサンプルの提示をいたします。
3)お客様指定、もしくは弊社の発注書をメール添付にて発送してください。
4)データリソース社からレポート発行元の調査会社へ納品手配します。
5) 調査会社からお客様へ納品されます。最近は、pdfにてのメール納品が大半です。


お支払方法の方法はどのようになっていますか?


納品と同時にデータリソース社よりお客様へ請求書(必要に応じて納品書も)を発送いたします。
お客様よりデータリソース社へ(通常は円払い)の御振り込みをお願いします。
請求書は、納品日の日付で発行しますので、翌月最終営業日までの当社指定口座への振込みをお願いします。振込み手数料は御社負担にてお願いします。
お客様の御支払い条件が60日以上の場合は御相談ください。
尚、初めてのお取引先や個人の場合、前払いをお願いすることもあります。ご了承のほど、お願いします。


データリソース社はどのような会社ですか?


当社は、世界各国の主要調査会社・レポート出版社と提携し、世界各国の市場調査レポートや技術動向レポートなどを日本国内の企業・公官庁及び教育研究機関に提供しております。
世界各国の「市場・技術・法規制などの」実情を調査・収集される時には、データリソース社にご相談ください。
お客様の御要望にあったデータや情報を抽出する為のレポート紹介や調査のアドバイスも致します。



詳細検索

このレポートへのお問合せ

03-3582-2531

電話お問合せもお気軽に

 

2024/07/01 10:26

162.23 円

174.76 円

207.97 円

ページTOPに戻る