AIチップ 2023-2033年AI Chips 2023-2033 世界のAIチップ市場は2033年までに2576億米ドルに成長し、その時の3大産業バーティカルはIT・テレコム、銀行・金融サービス・保険(BFSI)、コンシューマーエレクトロニクスです。2016年に囲碁の世界チャンピ... もっと見る
日本語のページは自動翻訳を利用し作成しています。
サマリー
世界のAIチップ市場は2033年までに2576億米ドルに成長し、その時の3大産業バーティカルはIT・テレコム、銀行・金融サービス・保険(BFSI)、コンシューマーエレクトロニクスです。2016年に囲碁の世界チャンピオンであるイ・セドルに勝利したDeepMindから、OpenAIのChatGPTの強固な予測能力まで、人工知能の学習アルゴリズムの複雑さは驚くほど速いペースで成長しており、新しく開発された学習アルゴリズムを実行するのに必要な計算量はおよそ4ヶ月ごとに倍増していると思われます。この成長に対応するため、AIアプリケーション用のハードウェアには、新しいアルゴリズムが導入されても長く使えるスケーラビリティと、運用上のオーバーヘッドを低く抑えるだけでなく、複雑化するモデルをエンドユーザーに近いところで扱えることが求められています。モノのインターネットを実現するためには、クラウドとエッジの2つのアプローチでAIを扱うことが必要です。
IDTechExは、専門アナリストによる熱心な調査期間を経て、世界のAIチップ技術の展望と対応する市場について独自の洞察を提供する報告書を発行しました。本レポートには、AIチップの設計に関わる19のプレーヤー、設計スタートアップ企業10社、世界の最も著名な半導体メーカーについての包括的な分析が含まれています。これには、技術革新と市場ダイナミクスの詳細な評価も含まれています。市場分析と予測は、総売上高(全部入り、多目的を除く、多目的とクラウドベースの提供を除く)に焦点を当て、地域別(欧州、APAC、北米)、処理タイプ(エッジ、クラウド)、チップアーキテクチャ(GPU、CPU、ASIC、FPGA)、パッケージタイプ(システムオンチップ、マルチチップモジュール、2. 5D+)、アプリケーション(言語、コンピュータビジョン、予測、その他)、産業別(産業、ヘルスケア、自動車、小売、メディア&広告、BFSI、家電、IT&テレコム、その他)などがあります。
また、本レポートでは、90nmから3nmまでのノードのチップの製造、設計、組立、テスト&パッケージング、運用のコストに関する厳密な計算を、AI用に収録しています。半導体メーカーが3nmを超えるより高度なノードに移行する際の設計コストと製造コスト(ウェーハあたりの投資額)についての予測も示されている。本レポートは、キープレイヤーへのインタビューを通じて収集した一次データの偏りのない分析を行い、半導体およびエレクトロニクス分野における当社の専門知識を基に作成されています。
本調査は、以下のような方に価値ある知見を提供します:
インテリジェントハードウェアの台頭
特定の機能を果たすためにハードウェアを設計するという考え方、特にその機能が、メイン(ホスト)プロセッサから制御を奪って特定の種類の計算を高速化するものであれば、それは新しいものではありません; その目的は、複雑な浮動小数点演算をCPUからこの特殊用途のチップにオフロードすることで、FPUがより効率的に演算を処理できるため、CPUを他のことに集中させることができるのです。市場や技術の発展とともに、ワークロードも変化し、それに対応する新しいハードウェアが必要とされるようになった。特に、コンピュータグラフィックスの分野では、GPU(Graphics Processing Unit)と呼ばれるアクセラレーターが有名です。
コンピュータ・グラフィックスが異なるタイプのチップ・アーキテクチャを必要としたように、機械学習の出現は、機械学習ワークロードを効率的に処理することができる別のタイプのアクセラレータを要求するようになったのである。本レポートでは、CPU、GPU、FPGA(Field Programmable Gate Array)アーキテクチャの違いと、機械学習のワークロードを処理する際の相対的な有効性について詳しく説明します。特定用途向け集積回路(ASIC)は、特定のワークロードを処理するために効果的に設計することができ、本レポートでは、AI向けASICの世界的な大手設計者数社のアーキテクチャを分析している。MLワークロードを処理できるチップのニーズは、消費者にとってのメリット(家電製品の機能向上、セキュリティカメラにおけるより正確な画像分類や物体検出、自律走行車における低遅延・高精度の推論など)が実現されればされるほど高まる。このことは、2023年から2033年のAIチップ(MLワークロード処理に加えて他の用途に使用するもの、およびクラウドサービスを通じてアクセスできるチップも含む)の予測年平均成長率(CAGR)が24.4%に達したことにも反映している。
本報告書の3つの主要な予測それぞれについて、2023年から2033年までの年間複合成長率。出典 IDTechEx
AIが世界的なアジェンダに
自然言語処理(言語的な観点だけでなく、文脈的な観点からもテキストデータを理解する)、音声認識(話し言葉を解読し、同じ言語のテキストに変換したり、別の言語に変換したりできる)、推薦(サービス項目との相互作用に基づいて、消費者にパーソナライズした広告や提案を送信できる)、強化学習(観察/探索に基づいて予測を立てることができる、 ある製品(自律走行車や産業用ロボットなど)の有効性や国家統治モデルにとって非常に重要であるため、AIのハードウェアとソフトウェアの開発は、世界中の国や地域が資金を提供する動機となっています。AI対応のプロセッサやアクセラレータは半導体メーカーに依存しており、データセンターで使用されるチップに必要な最先端のノードを製造できるメーカーはアジア太平洋地域(特に台湾と韓国)にあるため、AIチップの製造能力は一部の企業からの供給可能性に依存しています(エッジデバイスについては、これらのチップが通常低電力推論に使われるため、最先端のノード技術の採用はそれほど必要ではありません。しかし、グローバルなサプライチェーンが特定の地域に大きく依存していることに変わりはない)。
2020年、COVID-19の流行、データマイニングの台頭、台湾の干ばつ、工場火災の発生、ネオンの調達難など、多くの補完的要因によって、半導体チップの需要が供給を上回る世界的なチップ不足が発生し、特定地域に集中する企業の製造能力に依存するリスクが顕在化した。それ以来、半導体バリューチェーンの最大の利害関係者(米国、EU、韓国、台湾、日本、中国)は、チップ不足がさらに悪化するような状況が再び発生した場合に備えて、製造不足に陥るリスクを軽減しようと努めてきました。国や地方自治体は、半導体製造企業の事業拡大や新施設の建設を奨励するための施策を実施しています。本レポートでは、こうした政府の取り組みについて、資金調達の内訳やその理由、他のステークホルダーにとっての意味(米国が中国に課している制限や、中国がこうした制限を回避して国家規模の半導体サプライチェーンを構築する方法など)を詳しく解説しています。さらに、2021年以降に半導体製造のために発表された民間投資の概要と、現在の企業の半導体製造能力、特にAIとの関連について説明されている。
2021年以降のメーカーによる半導体設備への投資予定額と確定額を示しています。米ドル以外の通貨が記載されている場合は、発行日現在で米ドルに換算しています。出典:IDTechEx IDTechEx
進歩のコスト
機械学習とは、コンピュータプログラムがデータを利用してモデルに基づいて予測を行い、使用する重み付けを調整することで、提供されたデータにより適合するようにモデルを最適化するプロセスである。そのため、計算には2つのステップが必要です: 学習」と「推論」です。AIアルゴリズムを実装する最初の段階は学習段階であり、データをモデルに供給し、モデルは供給されたデータに適切に適合するまで重みを調整する。第二段階は推論段階であり、学習されたAIアルゴリズムを実行し、(学習段階で提供されなかった)新しいデータを、取得したデータと一致するように分類することである。この2つのステージのうち、トレーニングステージは、同じ計算を何百万回も行うため、計算量が多くなります(一部の主要なAIアルゴリズムのトレーニングは、完了するまでに数日かかることもあります)。そこで、「AIアルゴリズムの学習にはどれくらいのコストがかかるのか?
これを定量化するために、IDTechExは90nmから3nmまでのAIチップの設計、製造、組み立て、テスト&パッケージング、運用コストを厳密に計算した。あるトランジスタ密度を持つ3nmチップは、同じトランジスタ密度を持つより成熟したノードチップよりも面積が小さいと考えることで、あるAIアルゴリズムの最先端チップを展開するコストを、同じアルゴリズムで同様の性能を持つ後発チップと比較することができます。例えば、ある面積とトランジスタ密度を持つ3nmチップを5年間連続使用した場合、当社が採用する3nmチップのモデルに基づくと、同じトランジスタ密度を持つ90nmチップを5年間連続使用した場合に発生するコストの45.4倍となる。これは、それぞれのチップの初期製造コストを含み、さらに、チップの使用期間に応じて、より成熟したノードチップからより高度なノードチップにアップグレードする価値があるかどうかを判断するために使用することができます。
AI用に使用される3nmのチップをモデルに、所定の各ノードで5年間にわたりチップを製造・運用するために必要なコストを算出。出典 IDTechEx
市場動向とロードマップ
IDTechExの世界AIチップ市場のモデルは、アーキテクチャーの動向、パッケージングの発展、資金や投資の分散/集中、過去の財務データ、地理的にローカライズされたエコシステムを考慮し、今後10年間の進化する市場価値を正確に表現しています。
目次
Summary
この調査レポートでは、AIチップの設計に関わる19のプレーヤー、設計スタートアップ企業10社、世界の最も著名な半導体メーカーについて詳細に調査・分析しています。
主な掲載内容(目次より抜粋)
Report Summary
The global AI chips market will grow to US$257.6 billion by 2033, with the three largest industry verticals at that time being IT & Telecoms, Banking, Financial Services and Insurance (BFSI), and Consumer Electronics. Artificial Intelligence is transforming the world as we know it; from the success of DeepMind over Go world champion Lee Sedol in 2016, to the robust predictive abilities of OpenAI's ChatGPT, the complexity of AI training algorithms is growing at a startlingly fast pace, where the amount of compute necessary to run newly-developed training algorithms appears to be doubling roughly every four months. In order to keep pace with this growth, hardware for AI applications is needed that is not just scalable - allowing for longevity as new algorithms are introduced, while keeping operational overheads low - but is also able to handle increasingly complex models at a point close to the end-user. A two-pronged approach, to handle AI in the cloud and at the edge, is required to fully realize an effective Internet of Things.
Following a period of dedicated research by expert analysts, IDTechEx has published a report that offers unique insights into the global AI chip technology landscape and corresponding markets. The report contains a comprehensive analysis of 19 players involved with AI chip design, as well as an account of 10 design start-up companies, and the most prominent semiconductor manufacturers globally. This includes a detailed assessment of technology innovations and market dynamics. The market analysis and forecasts focus on total revenue (all-inclusive, excluding multi-purpose, and excluding multi-purpose and cloud-based offerings), with granular forecasts that are disaggregated by geography (Europe, APAC, and North America), processing type (edge and cloud), chip architecture (GPU, CPU, ASIC and FPGA), packaging type (System-on-Chip, Multi-Chip Module, and 2.5D+), application (language, computer vision, predictive, and other), and industry vertical (industrial, healthcare, automotive, retail, media & advertising, BFSI, consumer electronics, IT & telecoms, and other).
In addition, this report contains rigorous calculations pertaining to costs of manufacture, design, assembly, test & packaging, and operation for chips at nodes from 90 nm down to 3 nm, for AI purposes. Forecasts are presented on the design costs and manufacture costs (investment per wafer) as semiconductor manufacturers move to more advanced nodes beyond 3 nm. The report presents an unbiased analysis of primary data gathered via our interviews with key players, and it builds on our expertise in the semiconductor and electronics sectors.
This research delivers valuable insights for:
The rise of intelligent hardware
The notion of designing hardware to fulfil a certain function, particularly if that function is to accelerate certain types of computations by taking control of them away from the main (host) processor is not a new one; the early days of computing saw CPUs (Central Processing Units) paired with mathematical coprocessors, known as Floating-Point Units (FPUs), the purpose of which was to offload complex floating point mathematical operations from the CPU to this special-purpose chip, as the latter could handle computations in a more efficient manner, thereby freeing the CPU up to focus on other things. As markets and technology developed, so too did workloads, and so new pieces of hardware were needed to handle these workloads. A particularly noteworthy example of one of these specialized workloads is the production of computer graphics, where the accelerator in question has become something of a household name: the Graphics Processing Unit (GPU).
Just as computer graphics required a different type of chip architecture, so the emergence of machine learning has brought about a demand for another type of accelerator, one that is capable of efficiently handling machine learning workloads. This report details the differences between CPU, GPU and Field Programmable Gate Array (FPGA) architectures, and their relative effectiveness with handling machine learning workloads. Application-specific Integrated Circuits (ASICs) can be effectively designed to handle specific workloads, with the architectures of several of the world's leading designers of ASICs for AI being analyzed in this report. The need for chips capable of handling ML workloads will only increase as the benefits for consumers (increased functionality in consumer electronics, more accurate image classification and object detection in security cameras, and low latency, high-precision inference in autonomous vehicles, for example) is realized, which is reflected in the forecast compound annual growth rate (CAGR) of 24.4% for AI chips (including those that are used for other purposes in addition to handling ML workloads, as well as chips accessible through a cloud service) between the years 2023 and 2033.
Compound Annual Growth Rates for each of the three main forecasts in this report, between the years 2023 and 2033. Source: IDTechEx
AI is on the global agenda
AI's capabilities in natural language processing (understanding of textual data, not just from a linguistic perspective but also a contextual one), speech recognition (being able to decipher a spoken language and convert it to text in the same language, or convert to another language), recommendation (being able to send personalized adverts/suggestions to consumers based on their interactions with service items), reinforcement learning (being able to make predictions based on observations/exploration, such as is used when training agents to play a game), object detection, and image classification (being able to distinguish objects from an environment, and decide on what that object is) are so significant to the efficacy of certain products (such as autonomous vehicles and industrial robots) and to models of national governance, that the development of AI hardware and software has motivated national and regional funding initiatives across the globe. As AI-capable processors and accelerators are dependent on semiconductor manufacturers, with those capable of producing the more advanced nodes necessary for chips employed within data centres located in the Asia-Pacific region (particularly Taiwan and South Korea), the ability to manufacture AI chips is dependent on the possible supply from a select few companies (for edge devices, it is not as necessary to employ leading-edge node technology, given that these chips are typically used for low-power inference. However, the fact remains that the global supply chain is heavily indebted to a specific geographic region).
The risk of relying on the manufacturing capabilities of companies concentrated in a specific geographic region was realized in 2020, when a number of complementing factors (such as the COVID-19 pandemic, the rise of data mining, a Taiwanese drought, fabrication facility fire outbreaks, and neon procurement difficulties) led to a global chip shortage, where demand for semiconductor chips exceeded supply. Since then, the largest stakeholders in the semiconductor value chain (the US, the EU, South Korea, Taiwan, Japan, and China) have sought to reduce their exposure to a manufacturing deficit, should another set of circumstances arise that results in an even more exacerbated chip shortage. National and regional government initiatives have been put in place to incentivize semiconductor manufacturing companies to expand operations or build new facilities. These government initiatives are discussed in the report, where the funding is broken down and the reasons for these initiatives and what they mean for other stakeholders (such as the restrictions imposed on China by the US, and how China can build a national semiconductor supply chain around these restrictions) is detailed. In addition, the private investments announced for semiconductor manufacture since 2021 are outlined, along with current company semiconductor manufacture capabilities, particularly in relation to AI.
Shown here are the proposed and confirmed investments into semiconductor facilities by manufacturers since 2021. Where currencies have been listed in anything but US$, these have been converted to US$ as of publication date. Source: IDTechEx
The cost of progress
Machine learning is the process by which computer programs utilize data to make predictions based on a model, and then optimize the model to better fit with the data provided, by adjusting the weightings used. Computation therefore involves two steps: Training, and Inference. The first stage of implementing an AI algorithm is the training stage, where data is fed into the model and the model adjust its weights until it fits appropriately with the provided data. The second stage is the inference stage, where the trained AI algorithm is executed, and new data (that was not provided in the training stage) is classified in a manner consist with the acquired data. Of the two stages, the training stage is more computationally intense, given that this stage involves performing the same computation millions of times (the training for some leading AI algorithms can take days to complete). This then poses the question: how much does it cost to train AI algorithms?
In an effort to quantify this, IDTechEx has rigorously calculated the design, manufacture, assembly, test & packaging, and operational costs of AI chips from 90 nm down to 3 nm. By considering that a 3 nm chip with a given transistor density will have a smaller area than a more mature node chip with the same transistor density, the cost of deploying a leading-edge chip for a given AI algorithm can be compared with a trailing-edge chip capable of a similar performance for the same algorithm. For example, should a 3 nm chip with a given area and transistor density be used continuously for five years, the cost incurred will be 45.4X less than the cost incurred by running a 90 nm chip with the same transistor density continuously for five years, based on the model of a 3 nm chip that we employ. This includes the initial production costs of the respective chips, and can then be used to determine whether it is worthwhile to upgrade from a more mature node chip to a more advanced node chip, depending on how long the chip is to be in service for.
The costs associated with producing and operating a chip at each of the given nodes over the course of 5 years, based on our model of a 3 nm chip used for AI purposes. Source: IDTechEx
Market developments and roadmaps
IDTechEx's model of the global AI chips market considers architectural trends, developments in packaging, the dispersion/concentration of funding and investments, historical financial data, and geographically-localized ecosystems to give an accurate representation of the evolving market value over the next ten years.
Table of Contents
ご注文は、お電話またはWEBから承ります。お見積もりの作成もお気軽にご相談ください。本レポートと同分野の最新刊レポート
IDTechEx 社の最新刊レポート本レポートと同じKEY WORD()の最新刊レポート
よくあるご質問IDTechEx社はどのような調査会社ですか?IDTechExはセンサ技術や3D印刷、電気自動車などの先端技術・材料市場を対象に広範かつ詳細な調査を行っています。データリソースはIDTechExの調査レポートおよび委託調査(個別調査)を取り扱う日... もっと見る 調査レポートの納品までの日数はどの程度ですか?在庫のあるものは速納となりますが、平均的には 3-4日と見て下さい。
注文の手続きはどのようになっていますか?1)お客様からの御問い合わせをいただきます。
お支払方法の方法はどのようになっていますか?納品と同時にデータリソース社よりお客様へ請求書(必要に応じて納品書も)を発送いたします。
データリソース社はどのような会社ですか?当社は、世界各国の主要調査会社・レポート出版社と提携し、世界各国の市場調査レポートや技術動向レポートなどを日本国内の企業・公官庁及び教育研究機関に提供しております。
|
詳細検索
2024/07/01 10:26 162.23 円 174.76 円 207.97 円 |