世界各国のリアルタイムなデータ・インテリジェンスで皆様をお手伝い

深層学習用プロセッサのガイド


A Guide to Processors for Deep Learning

概要   深層学習(ディープラーニング)   人工知能(AI)として知られるディープラーニングは、ここ数年で急速な変化と向上を遂げ、現在ではさまざまなアプリケーションに応用... もっと見る

 

 

出版社 出版年月 電子版価格 言語
Linley Group
リンリーグループ社
2021年2月28日 US$5,995
企業ライセンス
ライセンス・価格情報・注文方法はこちら
英語

日本語のページは自動翻訳を利用し作成しています。


 

サマリー

概要
 
深層学習(ディープラーニング)
 
人工知能(AI)として知られるディープラーニングは、ここ数年で急速な変化と向上を遂げ、現在ではさまざまなアプリケーションに応用されています。一般的にニューラルネットワークを使って実装されるディープラーニングは、大規模なデータセンターでの画像認識、音声処理、言語翻訳、その他多くのウェブサービスを強力にサポートしています。また、自動運転車では、物体の認識と意思決定に欠かせない技術となっています。 
 
このような高度な問題に対処するために必要な非常に複雑なニューラルネットワークを効率的に実行するには、どんなに高速なCPUでも不十分です。パフォーマンスを向上させるには、より特化したハードウェア・アーキテクチャが必要です。特に初期の学習機能には、グラフィックチップ(GPU)が普及しています。また、最近では、DSP、FPGA、専用ASICなど、さまざまなハードウェアが登場しています。
 
自律走行車は、ディープラーニングの重要なアプリケーションです。自動車はトレーニングを実施せず、より単純な推論タスクに集中します。それでも、これらの車両は非常に強力なプロセッサを必要としますが、データセンターのサーバに比べてコストと電力に制約があるため、異なるトレードオフが必要になります。 
 
現在、深層学習用プロセッサで最も収益を上げているのは、インテルやエヌビディアなどの大手チップベンダーです。Cerebras社、Graphcore社、Greenwaves社、Gyrfalcon社、Groq社、Habana社(現在はIntel社の一部)、Horizon Robotics社などが、いち早く製品を発表しています。 
 
市場と製品の整理
 
A Guide to Processors for Deep Learningでは、ハードウェア技術と製品について解説しています。このレポートでは、深い技術分析と真っ向からの製品比較に加えて、急速に発展するこの市場分野における企業の展望を分析しています。どの製品がデザインを勝ち取るのか、その理由は。リンレイグループ独自の技術分析は、将来を見据えた見解を提供し、競合する主張や製品を選別するのに役立ちます。 
 
本ガイドは、まず市場の詳細な概要を説明しています。深層学習の基本、ハードウェア・アクセラレーションの種類、自動車やデータセンターでの採用予測を含む最終市場について説明しています。レポートの中心となる章では、AMD、Cerebras、Graphcore、Groq、Gyrfalcon、Horizon Robotics、Intel(旧Altera、Habana、Mobileye、Movidius、Nervanaの技術を含む)、Mythic、Nvidia(Tegra、Teslaを含む)、Wave Computing、Xilinxが発表したチップ製品を詳細に技術的にカバーしています。また、Google社のTPUファミリーやTesla社の自律走行用ASICについても取り上げています。また、Alibaba、Blaize、Brainchip、Huawei、Lattice、Syntiantなど、さまざまな種類のAIチップを開発している数多くの企業についても短いプロフィールを掲載しています。 
 
情報に基づいた意思決定を行う
 
リンレイグループは、プロセッサ向け技術分析のリーディングベンダーとして、幅広い深層学習アプリケーション向けに設計されたあらゆるチップを包括的に紹介する専門知識を有しています。
 
自動車アプリケーション、IoTデバイス、データセンターのアクセラレータなどに適したプロセッサを探している方、これらのベンダーとの提携や投資を検討している方にとって、本レポートは調査時間を短縮し、コスト削減につながります。
 
本レポートの対象者
  • 深層学習や自律走行のためのチップやシステムを設計しているエンジニア
  • 深層学習や自律走行のためのプロセッサに関する情報を必要としている関連チップを販売している企業のマーケティング担当者やエンジニアリング担当者
  • 深層学習、画像処理、自律走行システムについての入門書を必要としている技術者
  • 深層学習プロセッサについての誇大広告にならない分析や、どのチップメーカーが成功する可能性が高いかについての分析を必要としている
  • 新興技術についての情報を必要としている報道関係者や広報担当者
 
この版の新機能  
 
『A Guide to Processors for Deep Learning』の第4版では、昨年発表された以下のような数十の新製品・新技術を網羅しています。
  • Nvidiaの業界をリードするGPU「Ampere A100」を支えるイノベーション
  • Qualcommの電力効率に優れた「Cloud AI 100」ラインの最初の製品
  • Graphcoreの第2世代アクセラレータ「GC2000」
  • 同じ75WでNvidiaのT4を上回るTenstorrentの初期製品「Grayskull」
  • IntelのAIに最適化された初のFPGA「Stratix NX」
  • AMDのスーパーコンピュータ向けの強力な新アクセラレータ「MI100(CDNA)」
  • NXPの「i.MX8M Plus」、同社初のAIアクセラレーション機能を搭載したマイクロコントローラ
  • Untether社の「TsunAImi」、業界最高水準の2,000TOPSを1枚のカードに搭載
  • Google社の次世代TPUv4を含むTPUファミリーの進化
  • Intel社の新しいGPU構想「Xe」
  • Esperanto社の最初の製品で、1.000個以上のMinionコアをわずか20個で搭載。
  • わずか20Wで1,000個以上のMinionコア
  • Groq社の新しいカードとシステム製品
  • Cerebras社の第2世代のWSE2(Wafer-Scale Engine)のプレビュー
  • インテル社のHabanaアクセラレータとAgilex FPGAのロードマップの更新
  • レベル3ADAS向けのテキサス・インスツルメンツ社のJacintoプロセッサ
  • Synaptics社のVS680,
  • AI対応のコンシューマ機器向け低価格SoC
  • その他、Ambient、Aspinity、Coherent Logix、Kneron、Perceive、SambaNova、Sima、XMOSなどの新しいAIベンダー
  • すべてのベンダーの新製品ロードマップとその他の最新情報
  • 2020年のパンデミックによる経済効果を含めた市場規模と予測の更新
 
全体概要
 
ディープラーニング技術は、世界のほぼすべての産業で導入または評価されています。本レポートでは、AI革命を支えるハードウェアに焦点を当てています。
 
大規模なクラウドサービスプロバイダー(CSP)は、深層学習を適用することで、ウェブ検索、言語翻訳、電子メールのフィルタリング、製品の推奨、Alexa、Cortana、Siriなどの音声アシスタントの改善が可能になります。データセンターのDLAは、2020年の売上高が50億ドルを超え、5年後には120億ドルに近づく。
 
ディープラーニングは、自動運転車の開発に不可欠です。自律型緊急ブレーキなどのADAS機能は、すでに世界の新車の半数以上に搭載されており、2025年には80%近くが採用されると予測しています。また、複数の自動車メーカーがレベル3の自律走行車を出荷しています。今後数年間で、ロボタクシーやその他の商用車が急速に普及し、2025年には25億ドル以上のプロセッサ収益が見込まれています。
 
音声などのクラウドサービスの遅延や信頼性を向上させるために、ドローンやセキュリティカメラ、IoT機器などのエッジ製品にニューラルネットワークが搭載されています。現在、ほとんどのプレミアムスマートフォンにはDLAが搭載されており、スマートスピーカーでも一般的になりつつあります。2025年には19億台のエッジデバイスがDLAを搭載して出荷されると予想しています。
 
市場の急成長に伴い、多くの新規企業がDLAを搭載したチップを開発しています。本レポートでは、社内向けのチップを開発している企業を含め、55社以上のベンダーを対象としていますが、他にも情報開示が少なすぎて対象外となっている企業が多数あることを承知しています。かつてのグラフィックアクセラレーターやネットワークプロセッサーのブームを彷彿とさせるような状況ですが、この競争ではより多くの勝者が生まれることを期待しています。
 
Nvidiaは、ニューラルネットワークのトレーニングと推論の両方に優れた性能を発揮する新しいGPU「Ampere」でデータセンター市場を席巻しています。Nvidiaは、ニューラルネットワークのトレーニングと推論の両方に優れた性能を発揮する新しいGPU「Ampere」でデータセンター市場を支配しています。Nvidiaは、自律走行車の開発をリードしています。Xavierプロセッサは、レベル3の自律走行に対応した業界初のシングルチップソリューションであり、Drive AGXカードはさらに高い機能を提供します。
 
インテルは、複数のDLAアーキテクチャを提供しています。同社の標準的なXeon CPUは、軽量推論によく使われているが、その性能はAmpereのものよりはるかに劣る。2019年末には、ハバナの学習・推論用ハイエンドDLAチップを買収したが、それ以降、製品開発は停滞している。インテルは、独自のDLAアーキテクチャを設計したい顧客向けに、さまざまなFPGAを販売している。低消費電力のMyriadチップは、ドローンなどのカメラ付き機器をターゲットにしている。また、子会社のモービルアイはADASをリードしており、レベル3以上ではエヌビディアと競合している。
 
データセンター用のDLAを提供している企業は他にもいくつかある。Cerebras、Graphcore、Groq、SambaNovaなどの新興企業が、新しいアーキテクチャを用いて、少なくともいくつかのワークロードでNvidiaのGPUを上回るチップをサンプリングまたは出荷しています。AMD の新しい GPU である MI100 は、HPC 向けの A100 に挑戦していますが、AI アプリケーションではまだ遅れをとっています。Xilinxは、新しいVersal FPGAにAIコアを追加しましたが、ニューラルネットワークのベンチマークは公開していません。これらのベンダーは、アリババ、アマゾン、バイドゥ、グーグル、マイクロソフト、その他の大手通信事業者が導入している自社製の推論ASICと競争しなければなりません。ファーウェイは独自のAIアーキテクチャを公開しており、サーバーやクラウドサービスとして販売しています。
 
NXP、Renesas、Texas Instruments、Toshibaなどの老舗自動車部品メーカーは、ADAS市場でMobileyeと競合しています。資金力のある中国の新興企業、Black SesameとHorizon Roboticsは、ADASプロセッサをリリースし、自律走行用のより高性能なチップを開発しています。また、Blaize(旧ThinCI)やHailoなど、他のスタートアップもこの市場をターゲットにしています。自律走行用のチップを独自に開発している自動車メーカーもありますが、すでに生産を開始しているASICの詳細を公開しているのはテスラだけです。レベル4のロボットアクシスのパイロット展開はすでに始まっており、2022年には量産化されると予想されています。
 
組込み市場は、ハードウェアとソフトウェアの両方の開発コストが比較的低く、デザインウィンですぐに収益を上げることができるため、最も多くの新興企業を魅了しています。この市場には、複数のエンドアプリケーションが存在します。Flex Logix社、Gyrfalcon社、Mythic社は、高解像度やマルチカメラ向けのハイエンドDLAチップを提供している。BrainChip社、Google社、Intel社、NXP社、Synaptics社は、ドローンやその他の民生用ビデオ機器をターゲットにしています。Syntiant社は、キーワード検索用に最も低消費電力のチップを提供していますが、Ambient社、Kneron社、Knowles社と競合しています。超低消費電力のセンサーについては、GreenWavesとLatticeが代替製品を提供している。
 
これらの製品の性能を比較することは複雑で、最終的なアプリケーションのニーズに大きく左右される。
本レポートでは、これらの企業や製品を評価するために必要なデータを提供するとともに、これらの製品がどの程度市場の要求に応えているかを分析しています。

 



 

ページTOPに戻る


 

Summary

半導体市場を専門とする米国調査会社リンリーグループ社 (The Linley Group) の調査レポート「深層学習用プロセッサのガイド 第4版」は、深層学習(ディープラーニング)向けプロセッサのハードウェア技術と製品を対象に調査しています。深い技術分析と真っ向からの製品比較に加えて、急速に発展するこの市場分野における企業の展望を分析しています。
 
主な掲載内容(目次より抜粋)
深層学習(ディープラーニング)の技術
人工ニューロン
ディープニューラルネットワーク
深層学習(ディープラーニング)の用途
深層学習(ディープラーニング)の促進要因
市場予測
データセンターと HPC
クライアントと IoT
企業の情報
 
 
Description
 
Take a Deep Dive into Deep Learning
 
Deep learning, also known as artificial intelligence (AI), has seen rapid changes and improvements over the past few years and is now being applied to a wide variety of applications. Typically implemented using neural networks, deep learning powers image recognition, voice processing, language translation, and many other web services in large data centers. It is an essential technology in self-driving cars, providing both object recognition and decision making. It is even moving into client devices such as smartphones and embedded (IoT) systems. 
 
Even the fastest CPUs are inadequate to efficiently execute the highly complex neural networks needed to address these advanced problems. Boosting performance requires more specialized hardware architectures. Graphics chips (GPUs) have become popular, particularly for the initial training function. Many other hardware approaches have recently emerged, including DSPs, FPGAs, and dedicated ASICs. Although these solutions promise order-of-magnitude improvements, GPU vendors are tuning their designs to better support deep learning.
 
Autonomous vehicles are an important application for deep learning. Vehicles don't implement training but instead focus on the simpler inference tasks. Even so, these vehicles require very powerful processors, but they are more constrained in cost and power than data-center servers, requiring different tradeoffs. Several chip vendors are delivering products specifically for this application; some automakers are developing their own ASICs instead. 
 
Large chip vendors such as Intel and Nvidia currently generate the most revenue from deep-learning processors. But many startups, some well funded, have emerged to develop new, more customized architectures for deep learning; Cerebras, Graphcore, Greenwaves, Gyrfalcon, Groq, Habana (now part of Intel), and Horizon Robotics are among the first to deliver products. Eschewing these options, leading data-center operators such as Alibaba, Amazon, Google and Microsoft have developed their own hardware accelerators. 
 
We Sort Out the Market and the Products
 
A Guide to Processors for Deep Learning covers hardware technologies and products. The report provides deep technology analysis and head-to-head product comparisons, as well as analysis of company prospects in this rapidly developing market segment. Which products will win designs, and why. The Linley Group’s unique technology analysis provides a forward-looking view, helping sort through competing claims and products. 
 
The guide begins with a detailed overview of the market. We explain the basics of deep learning, the types of hardware acceleration, and the end markets, including a forecast for both automotive and data-center adoption. The heart of the report provides detailed technical coverage of announced chip products from AMD, Cerebras, Graphcore, Groq, Gyrfalcon, Horizon Robotics, Intel (including former Altera, Habana, Mobileye, Movidius, and Nervana technologies), Mythic, Nvidia (including Tegra and Tesla), Wave Computing, and Xilinx. Other chapters cover Google’s TPU family of ASICs and Tesla’s autonomous-driving ASIC. We also include shorter profiles of numerous other companies developing AI chips of all sorts, including Alibaba, Blaize, Brainchip, Huawei, Lattice, and Syntiant. Finally, we bring it all together with technical comparisons in each product category and our analysis and conclusions about this emerging market. 
 
Make Informed Decisions 
 
As the leading vendor of technology analysis for processors, The Linley Group has the expertise to deliver a comprehensive look at the full range of chips designed for a broad range of deep-learning applications. Principal analyst Linley Gwennap and senior analyst Mike Demler use their experience to deliver the deep technical analysis and strategic information you need to make informed business decisions. 
 
Whether you are looking for the right processor for an automotive application, an IoT device, or a data-center accelerator, or seeking to partner with or invest in one of these vendors, this report will cut your research time and save you money. Make the smart decision: order A Guide to Processors for Deep Learning today. 
 
This report is written for:
  • Engineers designing chips or systems for deep learning or autonomous vehicles
  • Marketing and engineering staff at companies that sell related chips who need more information on processors for deep learning or autonomous vehicles
  • Technology professionals who wish an introduction to deep learning, vision processing, or autonomous-driving systems
  • Financial analysts who desire a hype-free analysis of deep-learning processors and of which chip suppliers are most likely to succeed
  • Press and public-relations professionals who need to get up to speed on this emerging technology
This market is developing rapidly — don't be left behind!
 
What's New
 
The fourth edition of A Guide to Processors for Deep Learning covers dozens of new products and technologies announced in the past year, including:
  • The innovation behind Nvidia’s Ampere A100, the industry-leading GPU
  • The first products in Qualcomm’s power-efficient Cloud AI 100 line
  • Graphcore’s second-generation accelerator, the GC2000
  • Tenstorrent’s initial Grayskull product, which outperforms Nvidia’s T4 at the same 75W
  • Intel’s new Stratix NX, its first AI-optimized FPGA
  • AMD’s powerful new MI100 (CDNA) accelerator for supercomputers
  • NXP’s i.MX8M Plus, the company’s first microcontroller with AI acceleration
  • Untether’s TsunAImi, which packs an industry-leading 2,000 TOPS into a single card
  • The evolution of Google’s TPU family, including its next-generation TPUv4
  • Intel’s new Xe GPU initiative
  • Esperanto’s first product, which features more than 1,000 Minion cores at only 20W
  • New card and system products from Groq
  • A preview of the second-generation Wafer-Scale Engine (WSE2) from Cerebras
  • Updated roadmaps for Intel’s Habana accelerators and Agilex FPGAs
  • The Jacinto processor from Texas Instruments for Level 3 ADAS
  • Synaptics’ VS680, a low-cost SoC for AI-enabled consumer devices
  • Other new AI vendors such as Ambient, Aspinity, Coherent Logix, Kneron, Perceive, SambaNova, Sima, and XMOS
  • New product roadmaps and other updates on all vendors
  • Updated market size and forecast to include economic effects of 2020 pandemic
 
Exective Summary
 
Deep-learning technology is being deployed or evaluated in nearly every industry in the world. This report focuses on the hardware that supports the AI revolution. As demand for the technology grows rap­idly, we see opportunities for deep-learning accelerators (DLAs) in three general are­as: the data center, automobiles, and embedded (edge) devices.
 
Large cloud-service providers (CSPs) can apply deep learning to improve web searches, language translation, email filtering, product recommenda­tions, and voice assistants such as Alexa, Cortana, and Siri. Data-center DLAs exceeded $5 billion in 2020 revenue and in five years will approach $12 billion. By 2025, we expect nearly half of all new servers (and most cloud servers) to include a DLA.
 
Deep learning is critical to the development of self-driving cars. ADAS functions such as autonomous emergency braking already appear in more than half of new cars worldwide; we forecast nearly 80% adoption by 2025. Several automakers are shipping Level 3 autonomous vehicles. Over the next few years, we expect rapid growth in robotaxis and other com­mercial vehicles, generating more than $2.5 billion in processor reve­nue in 2025.
 
To improve latency and reliability for voice and other cloud services, edge products such as drones, security cameras, and Internet of Things (IoT) devices are implementing neural networks. Most premium smartphones now include a DLA, which is also becoming common in smart speakers. We expect 1.9 billion edge devices to ship with DLAs in 2025.
 
The rapid market growth has spurred many new companies to develop chips with DLAs. This report covers more than 55 vendors, including those developing chips only for internal use; we’re aware of many others that have disclosed too little information to cover. Although the situation is reminiscent of previous booms in graphics accelerators and network processors, we expect more winners in this competition. Given the widely differing product requirements in the data center, auto­motive, and various embedded market segments, different companies are likely to take the lead in each.
 
Nvidia dominates the data-center market with its new Ampere GPU, which offers excellent per­formance for both neural-network training and infer­ence. Customers prefer the company’s broad and reliable software stack. Nvidia also leads the push to develop autonomous vehicles; its Xavier processor is the indus­try’s first single-chip solu­tion for Level 3 autonomy, and its Drive AGX cards deliver even greater capabilities.
 
Intel offers several DLA architectures. Its standard Xeon CPUs are often used for lightweight inference, although their performance is far less than Ampere’s. In late 2019, it acquired Habana’s high-end DLA chips for training and inference, but product development has stalled since then. Intel also sells a range of FPGAs for customers that wish to design their own DLA architecture. Its low-power Myriad chips target drones and other camera-based devices. In addition, its Mobileye subsid­iary leads in ADAS and competes against Nvidia at Level 3 and above.
 
Several others offer data-center DLAs. Cerebras, Graph­core, Groq, Samba­Nova, and other startups are sampling or shipping chips that use new architectures to outperform Nvidia’s GPUs on at least some workloads. AMD’s new MI100 GPU challenges the A100 for HPC but still lags on AI applications. Xilinx added AI cores to its new Versal FPGAs but hasn’t disclosed any neural-network benchmarks. These vendors must also compete against in-house infer­ence ASICs at Alibaba, Amazon, Baidu, Google, Microsoft, and other top CSPs, all of which are now deploying these devices. Huawei dis­closed its own AI architecture that it sells in servers and as a cloud ser­vice. Each of these companies offers a limited software stack and thus can target only a few workloads.
 
Established automotive suppliers such as NXP, Renesas, Texas Instru­ments, and Toshiba compete against Mobileye in the ADAS market. Well-funded Chinese startups Black Sesame and Horizon Robotics have released ADAS processors and are developing more-powerful chips for autono­mous driving. Other startups also target this market, including Blaize (formerly ThinCI) and Hailo. Some automakers are developing their own chips for autonomous vehicles, but only Tesla has disclosed any details about its ASIC, which is already in pro­duction. Pilot deployments of Level 4 robotaxis have already started, and we expect mass production of these vehicles in 2022.
 
The embedded market has attracted the most startups, as the cost of both hardware and software development is relatively low, and design wins can quickly generate revenue. This market encompasses multiple end appli­cations. Flex Logix, Gyrfalcon, and Mythic offer high-end DLA chips for high-resolution and multicamera applications. BrainChip, Google, Intel, NXP, and Synaptics target drones and other consumer video devices. Smart speakers and other voice-activated devices require less performance; Syntiant supplies the lowest-power chip for keyword spotting, but it competes against Ambi­ent, Kneron, and Knowles. For ultra-low-power sensors, GreenWaves and Lattice provide alternatives.
 
Comparing the capabilities of such products is complicated; much depends on the needs of the end application. This report provides the data necessary to evaluate these companies and their products, along with our analysis of how well they address market requirements.

 



ページTOPに戻る


Table of Contents

Table of Contents
 
List of Figures
List of Tables
About the Authors
About the Publisher
Preface
 
Executive Summary
1 Deep-Learning Applications
What Is Deep Learning?
Cloud-Based Deep Learning
Advanced Driver-Assistance Systems
Autonomous Vehicles
Voice Assistants
Smart Cameras
Manufacturing
Robotics
Financial Technology
Health Care and Medicine
2 Deep-Learning Technology
Artificial Neurons
Deep Neural Networks
Spiking Neural Networks
Neural-Network Training
Training Spiking Neural Networks
Pruning and Compression
Neural-Network Inference
Quantization
Neural-Network Software
Popular Frameworks
Other Open Software
Neural-Network Models
Image-Classification Models
Natural-Language and Recommender Models
3 Deep-Learning Accelerators
Accelerator Design
Data Formats
Computation Units
Dot Products
Systolic Arrays
Handling Sparsity
Other Common Functions
Processor Architectures
CPUs
GPUs
DSPs
Custom Architectures
FPGAs
Performance Measurement
Peak Operations
Neural-Network Performance
MLPerf Benchmarks
AI-Benchmark
4 Market Forecast
Market Overview
Data Center and HPC
Market Size
Market Forecast
Automotive
Market Size
Market Forecast
Autonomous Forecast
Client and IoT
Market Size
Market Forecast
5 AMD
Company Background
Key Features and Performance
Product Roadmap
Conclusions
6 Cambricon
Company Background
Key Features and Performance
Product Roadmap
Conclusions
7 Cerebras
Company Background
Key Features and Performance
Product Roadmap
Conclusions
8 Google
Company Background
Key Features and Performance
Data-Center TPUs
Edge TPU
Conclusions
9 Graphcore
Company Background
Key Features and Performance
Graphcore GC2
Graphcore GC2000
Graphcore M2000
Product Roadmap
Conclusions
10 Groq
Company Background
Key Features and Performance
Product Roadmap
Conclusions
11 Huawei
Company Background
Key Features and Performance
Conclusions
12 Intel
Company Background
Xeon Processors
Key Features and Performance
Product Roadmap
Habana Accelerators
Key Features and Performance
Product Roadmap
Stratix and Agilex FPGAs
Key Features and Performance
Product Roadmap
Movidius Myriad SoCs
Key Features and Performance
Product Roadmap
Conclusions
Data Center
Client and IoT
Strategy Summary
13 Mobileye (Intel)
Company Background
Key Features and Performance
Product Roadmap
Conclusions
14 Mythic
Company Background
Key Features and Performance
Product Roadmap
Conclusions
15 Nvidia Tegra
Company Background
Key Features and Performance
Software Development
Product Roadmap
Conclusions
16 Nvidia Tesla
Company Background
Key Features and Performance
Product Roadmap
Conclusions
17 NXP
Company Background
Key Features and Performance
Product Roadmap
Conclusions
18 Tesla (Motors)
Company Background
Key Features and Performance
Product Roadmap
Conclusions
19 Xilinx
Company Background
Key Features and Performance
UltraScale+
Alveo
Versal
Product Roadmap
Conclusions
20 Other Automotive Vendors
Black Sesame
Company Background
Key Features and Performance
Conclusions
Blaize
Company Background
Key Features and Performance
Conclusions
Hailo
Company Background
Key Features and Performance
Conclusions
Horizon Robotics
Company Background
Key Features and Performance
Conclusions
Renesas
Company Background
Key Features and Performance
Conclusions
Texas Instruments
Company Background
Key Features and Performance
Conclusions
Toshiba
Company Background
Key Features and Performance
Conclusions
21 Other Data-Center Vendors
Achronix
Company Background
Key Features and Performance
Conclusions
Alibaba
Company Background
Key Features and Performance
Conclusions
Amazon
Baidu
Company Background
Key Features and Performance
Conclusions
Centaur (Via)
Company Background
Key Features and Performance
Conclusions
Enflame
Company Background
Key Features and Performance
Conclusions
Esperanto
Company Background
Key Features and Performance
Conclusions
Furiosa
Marvell
Microsoft
Company Background
Key Features and Performance
Conclusions
Qualcomm
Company Background
Key Features and Performance
Conclusions
SambaNova
Company Background
Key Features and Performance
Conclusions
SimpleMachines
Company Background
Key Features and Performance
Conclusions
Tenstorrent
Company Background
Key Features and Performance
Conclusions
Tianshu Zhixin
Untether
Company Background
Key Features and Performance
Conclusions
Wave Computing
22 Other Embedded Vendors
Ambient
Company Background
Key Features and Performance
Conclusions
Aspinity
Company Background
Key Features and Performance
Conclusions
BrainChip
Company Background
Key Features and Performance
Conclusions
Coherent Logix
Company Background
Key Features and Performance
Conclusions
Cornami
Eta Compute
Company Background
Key Features and Performance
Conclusions
Flex Logix
Company Background
Key Features and Performance
Conclusions
Grai Matter
Company Background
Key Features and Performance
Conclusions
GreenWaves
Company Background
Key Features and Performance
Conclusions
Gyrfalcon
Company Background
Key Features and Performance
Conclusions
Kneron
Company Background
Key Features and Performance
Conclusions
Knowles
Company Background
Key Features and Performance
Conclusions
Lattice
Company Background
Key Features and Performance
Conclusions
NovuMind
Company Background
Key Features and Performance
Conclusions
Perceive
Company Background
Key Features and Performance
Conclusions
Sima.ai
Company Background
Key Features and Performance
Conclusions
Synaptics
Company Background
Key Features and Performance
Conclusions
Syntiant
Company Background
Key Features and Performance
Conclusions
XMOS
Company Background
Key Features and Performance
Conclusions
23 Processor Comparisons
How to Read the Tables
Data-Center Training
Architecture
Interfaces
Performance and Power
Summary
Data-Center Inference
Architecture
Interfaces
Performance and Power
Summary
Power-Efficient Data-Center Inference
Architecture
Interfaces
Performance and Power
Summary
Automotive Processors
CPU Subsystem
Vision Processing
Interfaces
Summary
Embedded Processors
Performance and Power
Memory and Interfaces
Summary
Embedded Coprocessors
Performance and Power
Memory and Interfaces
Summary
Ultra-Low-Power Processors
Performance and Power
Memory and Interfaces
Summary
24 Conclusions
Market Summary
Data Center
Automotive
Embedded
Technology Trends
Neural Networks
Hardware Options
Performance Metrics
Vendor Summary
Data Center
Automotive
Embedded
Closing Thoughts
Index
 
List of Figures
 
Figure 1‑1. SAE autonomous-driving levels
Figure 1‑2. Waymo autonomous test vehicle
Figure 1‑3. GM’s autonomous-vehicle prototype
Figure 1‑4. Various smart speakers
Figure 1‑5. A smart surveillance camera
Figure 1‑6. Processing steps in a computer-vision neural network
Figure 1‑7. Robotic arms use deep learning
Figure 1‑8. Comparisons of lung-disease severity (PXS)
Figure 2‑1. Neuron connections in a biological brain
Figure 2‑2. Model of a neural-network processing node
Figure 2‑3. Common activation functions
Figure 2‑4. Model of a four-layer neural network
Figure 2‑5. Three-dimensional neural network
Figure 2‑6. Spiking effect in biological neurons
Figure 2‑7. Spiking-neural-network pattern
Figure 2‑8. Pruning a neural network
Figure 2‑9. Mapping from floating-point format to integer format
Figure 3‑1. Common AI data types and approximate data ranges
Figure 3‑2. Arm dot-product operation
Figure 3‑3. A systolic array
Figure 3‑4. Performance versus batch size
Figure 4‑1. Revenue forecast for deep-learning chips, 2017–2025
Figure 4‑2. Unit forecast for deep-learning chips, 2017–2025
Figure 4‑3. Unit forecast for deep-learning chips by technology, 2018–2025
Figure 4‑4. Unit forecast for ADAS-equipped vehicles, 2017–2025
Figure 4‑5. Revenue forecast for ADAS processors, 2017–2025
Figure 4‑6. Unit forecast for client deep-learning chips, 2017–2025
Figure 5‑1. AMD CDNA architecture
Figure 7‑1. Cerebras wafer-scale engine (WSE)
Figure 8‑1. Google TPUv3 board
Figure 9‑1. Block diagram of Graphcore M2000 accelerator
Figure 10‑1. TSP conceptual diagram
Figure 12‑1. Functional diagram of Habana HLS-1 system
Figure 14‑1. Mythic's flash-based neural-network tile
Figure 20‑1. Blaize Pathfinder system-on-module
Figure 20‑2. Hailo-8 heterogeneous-resource map
Figure 20‑3. Block diagram of Renesas R-Car V3H
Figure 20‑4. TI Jacinto 7 TDA4VM primary compute domain
Figure 20‑5. Block diagram of Toshiba TMPV770 ADAS processor
Figure 21‑1. Block diagram of Centaur CHA processor
Figure 21‑2. Esperanto ET-SoC-1 die plot
Figure 22‑1. Block diagram of Aspinity AnalogML processor
Figure 22‑2. Block diagram of Eta Compute ECM3531
Figure 22‑3. Block diagram of Flex Logix InferX X1
Figure 22‑4. Block diagram of GreenWaves GAP8 processor
Figure 22‑5. Block diagram of Knowles AISonic processor
Figure 22‑6. Block diagram of Lattice SensAI architecture
Figure 22‑7. Block diagram of Synaptics AudioSmart AS-371
Figure 22‑8. Block diagram of Syntiant NDP101 speech processor
Figure 22‑9. Xcore.ai processor architecture
Figure 23‑1. ResNet-50 v1.0 training throughput
Figure 23‑2. ResNet-50 v1.0 inference throughput (high end)
Figure 23‑3. ResNet-50 v1.0 inference throughput (low end)
Figure 23‑4. ResNet-50 v1.0 inference latency
Figure 24‑1. Model-size trends, 2014–2020
 
List os Tables
 
Table 2‑1. Size and compute requirement of popular DNNs
Table 3 1. AI-Benchmark smartphone tests
Table 4‑1. Data-center DLA units and revenue, 2019–2025
Table 5‑1. Key parameters for AMD Instinct accelerators
Table 6‑1. Key parameters for Cambricon edge- and cloud-AI processors
Table 8‑1. Key parameters for Google TPU accelerators
Table 8‑2. Key parameters for Google Edge TPU
Table 9‑1. Key parameters for Graphcore processors
Table 10‑1. Key parameters for Groq TSP architecture
Table 11‑1. Key parameters for Huawei Ascend devices
Table 12‑1. Key parameters for selected Intel Xeon Scalable processors
Table 12‑2. Key parameters for Intel Habana Goya accelerator card
Table 12‑3. Key parameters for selected Intel FPGAs
Table 12‑4. Key parameters for Intel Movidius processors
Table 13‑1. Key parameters for Mobileye EyeQ processors
Table 14‑1. Key parameters for Mythic M1108 DLA
Table 15‑1. Key parameters for Nvidia automotive processors
Table 16‑1. Key parameters for Nvidia deep-learning GPUs
Table 17‑1. Key parameters for NXP AI-enabled processors
Table 18‑1. Key parameters for Tesla FSD ASIC
Table 19‑1. Key parameters for selected Xilinx FPGAs
Table 20‑1. AI-chip companies targeting automotive applications
Table 21‑1. AI-chip companies targeting data-center applications
Table 21‑2. Key parameters for Achronix Speedster7t FPGAs
Table 21‑3. Key parameters for Alibaba HanGuang 800 accelerator card
Table 21‑4. Key parameters for Baidu Kunlun K200 accelerator card
Table 21‑5. Key parameters for Enflame CloudBlazer products
Table 21‑6. Key parameters for Qualcomm Cloud AI 100 products
Table 21‑7. Key parameters for SimpleMachines Accelerando card
Table 21‑8. Key parameters for Tenstorrent Grayskull accelerator card
Table 21‑9. Key parameters for Untether TsunAImi accelerator card
Table 22‑1. AI-chip companies targeting embedded applications
Table 22‑2. Key parameters for Gyrfalcon Lightspeeur coprocessors
Table 22‑3. Key parameters for Kneron edge-AI processors
Table 22‑4. Key parameters for Perceive Ergo processor
Table 23‑1. Comparison of leading DLAs for AI training
Table 23‑2. Comparison of other DLAs for AI training
Table 23‑3. Comparison of high-end DLAs for AI inference
Table 23‑4. Comparison of midrange DLAs for AI inference
Table 23‑5. Comparison of 75W DLAs for AI inference
Table 23‑6. Comparison of M.2 DLAs for AI inference
Table 23‑7. Comparison of ADAS processors
Table 23‑8. Comparison of autonomous-vehicle processors
Table 23‑9. Comparison of automotive DLAs
Table 23‑10. Comparison of low-power embedded DLA SoCs
Table 23‑11. Comparison of high-performance embedded DLA SoCs
Table 23‑12. Comparison of embedded DLA coprocessors
Table 23‑13. Comparison of ultra-low-power DLAs below 5 GOPS
Table 23‑14. Comparison of ultra-low-power DLAs above 50 GOPS

 

ページTOPに戻る

ご注文は、お電話またはWEBから承ります。お見積もりの作成もお気軽にご相談ください。

webからのご注文・お問合せはこちらのフォームから承ります

本レポートと同じKEY WORD(ディープラーニング)の最新刊レポート

  • 本レポートと同じKEY WORDの最新刊レポートはありません。

よくあるご質問


Linley Group社はどのような調査会社ですか?


リンリーグループ社 (The Linley Group) は、半導体市場の専門とする米国の調査会社です。データリソースは、日本の正規代理店としてリンリーグループ社の調査レポートおよびニューズレターを販... もっと見る


調査レポートの納品までの日数はどの程度ですか?


在庫のあるものは速納となりますが、平均的には 3-4日と見て下さい。
但し、一部の調査レポートでは、発注を受けた段階で内容更新をして納品をする場合もあります。
発注をする前のお問合せをお願いします。


注文の手続きはどのようになっていますか?


1)お客様からの御問い合わせをいただきます。
2)見積書やサンプルの提示をいたします。
3)お客様指定、もしくは弊社の発注書をメール添付にて発送してください。
4)データリソース社からレポート発行元の調査会社へ納品手配します。
5) 調査会社からお客様へ納品されます。最近は、pdfにてのメール納品が大半です。


お支払方法の方法はどのようになっていますか?


納品と同時にデータリソース社よりお客様へ請求書(必要に応じて納品書も)を発送いたします。
お客様よりデータリソース社へ(通常は円払い)の御振り込みをお願いします。
請求書は、納品日の日付で発行しますので、翌月最終営業日までの当社指定口座への振込みをお願いします。振込み手数料は御社負担にてお願いします。
お客様の御支払い条件が60日以上の場合は御相談ください。
尚、初めてのお取引先や個人の場合、前払いをお願いすることもあります。ご了承のほど、お願いします。


データリソース社はどのような会社ですか?


当社は、世界各国の主要調査会社・レポート出版社と提携し、世界各国の市場調査レポートや技術動向レポートなどを日本国内の企業・公官庁及び教育研究機関に提供しております。
世界各国の「市場・技術・法規制などの」実情を調査・収集される時には、データリソース社にご相談ください。
お客様の御要望にあったデータや情報を抽出する為のレポート紹介や調査のアドバイスも致します。



詳細検索

このレポートへのお問合せ

03-3582-2531

電話お問合せもお気軽に

 

2024/07/04 10:27

162.47 円

175.74 円

209.86 円

ページTOPに戻る