AIワークロード向けAIネットワーク:先行研究レポートAdvanced Research Report on AI Networks for AI Workloads AI業界は現在、大きな変曲点を迎えており、OpenAIのChatGPTのような大規模言語モデルや生成的AIアプリケーションの急速な台頭がその特徴である。これらの新興AIアプリケーションの特徴は、管理しなければなら... もっと見る
サマリーAI業界は現在、大きな変曲点を迎えており、OpenAIのChatGPTのような大規模言語モデルや生成的AIアプリケーションの急速な台頭がその特徴である。これらの新興AIアプリケーションの特徴は、管理しなければならないパラメータの数が膨大であることだ。中には数十億、あるいは数兆ものパラメーターを扱うものもあり、数千から数万のGPU、TPU、その他の種類の高速プロセッサを使用する必要がある。 これらの高速サーバーを大規模なクラスターに接続するには、AIバックエンド・ネットワークと呼ばれるデータ センター規模のファブリックが必要だ。このネットワークは、汎用サーバーの接続に使用される従来のフロントエンド・ネットワークとは異なる。 さらに、AIワークロードには、従来の汎用コンピューティング ワークロードとは大きく異なる独自の属性と特性があり、これらの属性は、AIワークロードを実行するために必要なネットワークの種類に重要な影響を及ぼす。 AIワークロード向けAIネットワーク:先行研究レポート(ARR)は以下の重要な質問に答える事を目的としている:
プレスリリース
AIバックエンド・ネットワークが今後5年間でデータセンター・スイッチの支出を800億ドル押し上げる
当面はインフィニバンドがリード、間もなくイーサネットが主流に Dell'Oro GroupのバイスプレジデントであるSameh Boujelbene氏は以下の様に述べている。 「AIワークロードと関連するデータセンター・インフラの成長は、市場の予想を大きく上回るペースで続いている。そのため、我々はAIバックエンド・ネットワークの予測を2023年12月時点の予測よりも引き上げたが、当初、その予測は多くの業界関係者からは非常にアグレッシブであると見なされていた。 この上方修正は、イーサネットとインフィニバンドにまたがる広範囲なものであった。しかし、我々は現在、イーサネットが今後数年以内にインフィニバンドを凌駕する能力について、より楽観視している。この楽観論は、技術面での大幅な改善と市場の需要に起因している。 技術面では、ネットワーク・チップ、ネットワーク・オペレーティング・システム、ネットワーク・インターフェイス・カード、オプティクスといったスタックの複数レイヤーにおいて、イーサネットの大幅な機能強化が見られる。需要面では、セレスティカ、シスコ、アリスタ、ジュニパー、ノキアなどのスイッチベンダーが獲得する可能性のある多くの案件のほか、エヌビディアが発表した最新の10万GPUクラスタの獲得など、イーサネットの新規獲得案件を大きく追っている。」 その他のハイライト:
レポートについて
SummaryThe AI industry is currently undergoing a significant inflection point, marked and defined by the rapid rise of emerging large language models and generative AI applications, such as OpenAI’s ChatGPT. What sets these emerging AI applications apart is the sheer number of parameters they must manage. Some of them deal with billions — or even trillions — of parameters, necessitating the use of thousands or tens of thousands of GPUs, TPUs, or other types of accelerated processors. Connecting these accelerated servers into large clusters requires a data center-scale fabric known as the AI back-end network. This network differs from the traditional front-end network used to connect general-purpose servers. Furthermore, AI workloads possess unique attributes and characteristics that vastly differ from traditional general-purpose compute workloads. These distinctive attributes have important implications for the type of network required to run these AI workloads. The AI Networks for AI Workloads Advanced Research Report (ARR) aims to answer critical market questions such as:
Press ReleaseAI Back-End Networks to Drive $80 B of Data Center Switch Spending Over the Next Five Years, According to Dell’Oro Group
InfiniBand Leads in the Near Term, Ethernet Set to Dominate Soon “As predicted, growth in AI workloads and the associated data center infrastructure continues to track well ahead of market expectations. We therefore raised our forecast for the AI back-end networks compared to our prior December 2023 forecast, though the latter was initially considered very aggressive by a number of industry players,” said Sameh Boujelbene, Vice President at Dell’Oro Group. “The upward adjustment was broad-based across Ethernet and InfiniBand. We are now, however, much more optimistic about the ability of Ethernet to eclipse InfiniBand within the next few years. This optimism stems from significant improvements on the technology side as well as market demand. “On the technology side, we are observing significant enhancements on Ethernet at multiple layers of the stack: network chips, network operating systems, network interface cards and optics. In terms of demand, we are tracking significant new Ethernet wins, such as the latest 100K GPU cluster win announced by NVIDIA, among many other potential wins by other switch vendors including Celestica, Cisco, Arista, Juniper, and Nokia,” continued Boujelbene. Additional highlights from the AI Networks for AI Workloads Report: AI networks will accelerate the transition to higher speeds. The majority of the switch ports deployed in AI back-end networks are expected to be 800 Gbps by 2025 and 1600 Gbps by 2027. While most of the market demand will come from Tier 1 Cloud Service Providers, we have significantly raised our forecast for Tier 2/3 and large enterprises in light of their accelerated pace of AI workload adoption and infrastructure deployment.
About the Report
ご注文は、お電話またはWEBから承ります。お見積もりの作成もお気軽にご相談ください。本レポートと同分野の最新刊レポート
Dell'Oro Group 社の最新刊レポート本レポートと同じKEY WORD(ChatGPT)の最新刊レポート
よくあるご質問Dell'Oro Group社はどのような調査会社ですか?シリコンバレーの中心部に本社を置くデローログループ(Dell’Oro Group)は 通信、エンタープライズネットワーク、データセンタ、セキュリテ... もっと見る 調査レポートの納品までの日数はどの程度ですか?在庫のあるものは速納となりますが、平均的には 3-4日と見て下さい。
注文の手続きはどのようになっていますか?1)お客様からの御問い合わせをいただきます。
お支払方法の方法はどのようになっていますか?納品と同時にデータリソース社よりお客様へ請求書(必要に応じて納品書も)を発送いたします。
データリソース社はどのような会社ですか?当社は、世界各国の主要調査会社・レポート出版社と提携し、世界各国の市場調査レポートや技術動向レポートなどを日本国内の企業・公官庁及び教育研究機関に提供しております。
|
詳細検索
2024/10/30 10:26 154.31 円 167.43 円 203.53 円 |