論文の概要: An Evaluation of Edge TPU Accelerators for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2102.10423v1
- Date: Sat, 20 Feb 2021 19:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 14:41:13.914349
- Title: An Evaluation of Edge TPU Accelerators for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのためのエッジTPU加速器の評価
- Authors: Amir Yazdanbakhsh, Kiran Seshadri, Berkin Akin, James Laudon, Ravi
Narayanaswami
- Abstract要約: Edge TPUは低消費電力のエッジデバイス用のアクセラレータで、CoralやPixelなどのさまざまなGoogle製品で広く使用されている。
私たちは、エッジtpusの3つのクラスを広範囲に評価し、さまざまなコンピューティングエコシステムをカバーしました。
我々は、アクセラレーターの主要なパフォーマンス指標を推定するために、高精度な学習機械学習モデルの開発に取り組みます。
- 参考スコア(独自算出の注目度): 2.7584363116322863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge TPUs are a domain of accelerators for low-power, edge devices and are
widely used in various Google products such as Coral and Pixel devices. In this
paper, we first discuss the major microarchitectural details of Edge TPUs.
Then, we extensively evaluate three classes of Edge TPUs, covering different
computing ecosystems, that are either currently deployed in Google products or
are the product pipeline, across 423K unique convolutional neural networks.
Building upon this extensive study, we discuss critical and interpretable
microarchitectural insights about the studied classes of Edge TPUs. Mainly, we
discuss how Edge TPU accelerators perform across convolutional neural networks
with different structures. Finally, we present our ongoing efforts in
developing high-accuracy learned machine learning models to estimate the major
performance metrics of accelerators such as latency and energy consumption.
These learned models enable significantly faster (in the order of milliseconds)
evaluations of accelerators as an alternative to time-consuming cycle-accurate
simulators and establish an exciting opportunity for rapid hard-ware/software
co-design.
- Abstract(参考訳): edge tpusは低消費電力のエッジデバイスのためのアクセラレータのドメインであり、コーラルやpixelなどのgoogle製品で広く使われている。
本稿では、まずエッジTPUの主要なマイクロアーキテクチャの詳細について議論する。
次に,エッジtpusの3つのクラスを広範囲に評価し,google製品に現在デプロイされている,あるいは製品パイプラインである,さまざまなコンピューティングエコシステムをカバーする。
この広範な研究に基づいて、Edge TPUの研究クラスに関する重要で解釈可能なマイクロアーキテクチャの洞察について議論します。
主に,異なる構造を持つ畳み込みニューラルネットワークにおけるエッジtpu加速器の性能について論じる。
最後に,高精度学習型機械学習モデルの開発に取り組み,待ち時間やエネルギー消費といった加速器の性能指標を推定する。
これらの学習モデルは、サイクル正確なシミュレーターの代替として、アクセラレーターの評価を(ミリ秒の順序で)大幅に高速化し、高速なハードウエア/ソフトウェア共同設計のエキサイティングな機会を確立する。
関連論文リスト
- Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Exploration of TPUs for AI Applications [0.0]
Processing Units (TPU) は、Googleが開発したディープラーニングのためのハードウェアアクセラレーターである。
本稿では、クラウドおよびエッジコンピューティングにおけるTPUを、AIアプリケーションに焦点をあてて検討することを目的とする。
論文 参考訳(メタデータ) (2023-09-16T07:58:05Z) - FLEdge: Benchmarking Federated Machine Learning Applications in Edge Computing Systems [61.335229621081346]
フェデレートラーニング(FL)は,ネットワークエッジ上での分散ディープラーニングのプライバシ強化を実現する上で,有効なテクニックとなっている。
本稿では,既存のFLベンチマークを補完するFLEdgeを提案する。
論文 参考訳(メタデータ) (2023-06-08T13:11:20Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Exploring Deep Neural Networks on Edge TPU [2.9573904824595614]
本稿では、フィードフォワードニューラルネットワークにおけるGoogleのEdge TPUの性能について検討する。
We compare the energy efficiency of Edge TPU with widely-useed embedded CPU ARM Cortex-A53。
論文 参考訳(メタデータ) (2021-10-17T14:01:26Z) - Deep Learning on Edge TPUs [0.0]
Edge TPUプラットフォーム、Edge TPUを使用して達成されたタスク、Edge TPUハードウェアにモデルをデプロイするために必要なステップについてレビューします。
Edge TPUは、一般的なコンピュータビジョンタスクに対処するだけでなく、他のハードウェアアクセラレータを上回ります。
Edge TPUをカメラに組み込むことで、一次データのシームレスな分析が可能になる。
論文 参考訳(メタデータ) (2021-08-31T10:23:37Z) - Exploring Edge TPU for Network Intrusion Detection in IoT [2.8873930745906957]
本稿では、ディープラーニングアプローチに基づいて、IoTのエッジに実用的なネットワーク侵入検知システム(NIDS)を実装するためのGoogleのEdge TPUについて検討する。
これら3つのメトリクスを調べるために、2つの主要なディープニューラルネットワークアーキテクチャの様々なスケールドモデルサイズが使用される。
Edge TPUベースの実装の性能は、エネルギー効率の良い組み込みCPU(ARM Cortex A53)と比較される
論文 参考訳(メタデータ) (2021-03-30T12:43:57Z) - Accelerator-aware Neural Network Design using AutoML [5.33024001730262]
We present a class of computer vision model designed using hardware-aware neural architecture search and customd to run on the Edge TPU。
CoralデバイスにおけるEdge TPUでは、これらのモデルはリアルタイムな画像分類性能を実現しつつ、データセンターで実行される大規模で計算量の多いモデルでのみ見られる精度を実現している。
論文 参考訳(メタデータ) (2020-03-05T21:34:22Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。