論文の概要: An Evaluation of Edge TPU Accelerators for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2102.10423v1
- Date: Sat, 20 Feb 2021 19:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 14:41:13.914349
- Title: An Evaluation of Edge TPU Accelerators for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのためのエッジTPU加速器の評価
- Authors: Amir Yazdanbakhsh, Kiran Seshadri, Berkin Akin, James Laudon, Ravi
Narayanaswami
- Abstract要約: Edge TPUは低消費電力のエッジデバイス用のアクセラレータで、CoralやPixelなどのさまざまなGoogle製品で広く使用されている。
私たちは、エッジtpusの3つのクラスを広範囲に評価し、さまざまなコンピューティングエコシステムをカバーしました。
我々は、アクセラレーターの主要なパフォーマンス指標を推定するために、高精度な学習機械学習モデルの開発に取り組みます。
- 参考スコア(独自算出の注目度): 2.7584363116322863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge TPUs are a domain of accelerators for low-power, edge devices and are
widely used in various Google products such as Coral and Pixel devices. In this
paper, we first discuss the major microarchitectural details of Edge TPUs.
Then, we extensively evaluate three classes of Edge TPUs, covering different
computing ecosystems, that are either currently deployed in Google products or
are the product pipeline, across 423K unique convolutional neural networks.
Building upon this extensive study, we discuss critical and interpretable
microarchitectural insights about the studied classes of Edge TPUs. Mainly, we
discuss how Edge TPU accelerators perform across convolutional neural networks
with different structures. Finally, we present our ongoing efforts in
developing high-accuracy learned machine learning models to estimate the major
performance metrics of accelerators such as latency and energy consumption.
These learned models enable significantly faster (in the order of milliseconds)
evaluations of accelerators as an alternative to time-consuming cycle-accurate
simulators and establish an exciting opportunity for rapid hard-ware/software
co-design.
- Abstract(参考訳): edge tpusは低消費電力のエッジデバイスのためのアクセラレータのドメインであり、コーラルやpixelなどのgoogle製品で広く使われている。
本稿では、まずエッジTPUの主要なマイクロアーキテクチャの詳細について議論する。
次に,エッジtpusの3つのクラスを広範囲に評価し,google製品に現在デプロイされている,あるいは製品パイプラインである,さまざまなコンピューティングエコシステムをカバーする。
この広範な研究に基づいて、Edge TPUの研究クラスに関する重要で解釈可能なマイクロアーキテクチャの洞察について議論します。
主に,異なる構造を持つ畳み込みニューラルネットワークにおけるエッジtpu加速器の性能について論じる。
最後に,高精度学習型機械学習モデルの開発に取り組み,待ち時間やエネルギー消費といった加速器の性能指標を推定する。
これらの学習モデルは、サイクル正確なシミュレーターの代替として、アクセラレーターの評価を(ミリ秒の順序で)大幅に高速化し、高速なハードウエア/ソフトウェア共同設計のエキサイティングな機会を確立する。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Green Edge AI: A Contemporary Survey [49.47249665895926]
グリーンエッジAIに関する現代の調査を紹介する。
その可能性にもかかわらず、エッジAIは重大な課題に直面している。主な原因は、無線エッジネットワークのリソース制限と、ディープラーニング(DL)のリソース集約性との間の二分である。
我々は、エッジAIシステムにおける3つの重要なタスクに対して、トレーニングデータ取得、エッジトレーニング、エッジ推論を含むエネルギー効率の高い設計手法について検討する。
論文 参考訳(メタデータ) (2023-12-01T04:04:37Z) - Exploration of TPUs for AI Applications [0.0]
Processing Units (TPU) は、Googleが開発したディープラーニングのためのハードウェアアクセラレーターである。
本稿では、クラウドおよびエッジコンピューティングにおけるTPUを、AIアプリケーションに焦点をあてて検討することを目的とする。
論文 参考訳(メタデータ) (2023-09-16T07:58:05Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Exploring Deep Neural Networks on Edge TPU [2.9573904824595614]
本稿では、フィードフォワードニューラルネットワークにおけるGoogleのEdge TPUの性能について検討する。
We compare the energy efficiency of Edge TPU with widely-useed embedded CPU ARM Cortex-A53。
論文 参考訳(メタデータ) (2021-10-17T14:01:26Z) - Deep Learning on Edge TPUs [0.0]
Edge TPUプラットフォーム、Edge TPUを使用して達成されたタスク、Edge TPUハードウェアにモデルをデプロイするために必要なステップについてレビューします。
Edge TPUは、一般的なコンピュータビジョンタスクに対処するだけでなく、他のハードウェアアクセラレータを上回ります。
Edge TPUをカメラに組み込むことで、一次データのシームレスな分析が可能になる。
論文 参考訳(メタデータ) (2021-08-31T10:23:37Z) - Exploring Edge TPU for Network Intrusion Detection in IoT [2.8873930745906957]
本稿では、ディープラーニングアプローチに基づいて、IoTのエッジに実用的なネットワーク侵入検知システム(NIDS)を実装するためのGoogleのEdge TPUについて検討する。
これら3つのメトリクスを調べるために、2つの主要なディープニューラルネットワークアーキテクチャの様々なスケールドモデルサイズが使用される。
Edge TPUベースの実装の性能は、エネルギー効率の良い組み込みCPU(ARM Cortex A53)と比較される
論文 参考訳(メタデータ) (2021-03-30T12:43:57Z) - Accelerator-aware Neural Network Design using AutoML [5.33024001730262]
We present a class of computer vision model designed using hardware-aware neural architecture search and customd to run on the Edge TPU。
CoralデバイスにおけるEdge TPUでは、これらのモデルはリアルタイムな画像分類性能を実現しつつ、データセンターで実行される大規模で計算量の多いモデルでのみ見られる精度を実現している。
論文 参考訳(メタデータ) (2020-03-05T21:34:22Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。