論文の概要: Big-Little Adaptive Neural Networks on Low-Power Near-Subthreshold
Processors
- arxiv url: http://arxiv.org/abs/2304.09695v1
- Date: Wed, 19 Apr 2023 14:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:03:17.465628
- Title: Big-Little Adaptive Neural Networks on Low-Power Near-Subthreshold
Processors
- Title(参考訳): 低消費電力ニアサブスレッショルドプロセッサ上の大小適応ニューラルネットワーク
- Authors: Zichao Shen, Neil Howard and Jose Nunez-Yanez
- Abstract要約: 論文は、エッジAIアプリケーションにおいて、ほぼサブスレッショルドなプロセッサが得るエネルギーの節約について考察する。
アプリケーションの正確性を維持しながら、それらを改善するための戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the energy savings that near-subthreshold processors
can obtain in edge AI applications and proposes strategies to improve them
while maintaining the accuracy of the application. The selected processors
deploy adaptive voltage scaling techniques in which the frequency and voltage
levels of the processor core are determined at the run-time. In these systems,
embedded RAM and flash memory size is typically limited to less than 1 megabyte
to save power. This limited memory imposes restrictions on the complexity of
the neural networks model that can be mapped to these devices and the required
trade-offs between accuracy and battery life. To address these issues, we
propose and evaluate alternative 'big-little' neural network strategies to
improve battery life while maintaining prediction accuracy. The strategies are
applied to a human activity recognition application selected as a demonstrator
that shows that compared to the original network, the best configurations
obtain an energy reduction measured at 80% while maintaining the original level
of inference accuracy.
- Abstract(参考訳): 本稿では,ニアサブスレッショルドプロセッサがエッジaiアプリケーションで得る省エネについて検討し,アプリケーションの精度を維持しつつその改善策を提案する。
選択されたプロセッサは、実行時にプロセッサコアの周波数および電圧レベルが決定される適応電圧スケーリング手法を展開する。
これらのシステムでは、内蔵RAMとフラッシュメモリサイズは通常、電力節約のために1MB未満に制限される。
この制限されたメモリは、これらのデバイスにマップできるニューラルネットワークモデルの複雑さと、精度とバッテリー寿命の間のトレードオフを制限します。
これらの問題に対処するために,予測精度を維持しつつ,バッテリ寿命を改善するために,代替の「大小」ニューラルネットワーク戦略を提案し,評価する。
本手法は, 元々のネットワークと比較して, 80%のエネルギー削減と推定精度を維持しつつ, 最良構成のエネルギー削減が得られることを示す, 実証者として選択されたヒューマンアクティビティ認識アプリケーションに適用する。
関連論文リスト
- Adaptive Dynamic Programming for Energy-Efficient Base Station Cell
Switching [19.520603265594108]
無線ネットワークの省エネは、次世代のセルネットワークの進化に対する需要が増大しているため、重要になっている。
本稿では,ネットワーク電力消費量を減らすために,オンライン最適化と併用して,基地局のセルをオン/オフする近似動的プログラミング(ADP)手法を提案する。
論文 参考訳(メタデータ) (2023-10-05T14:50:12Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural
Network Inference in Low-Voltage Regimes [52.51014498593644]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は依然として注目すべき問題である。
我々は、低電圧状態における精度とエネルギーのトレードオフに対処する新しいアドオンモジュールであるNeuralFuseを紹介する。
1%のビットエラー率で、NeuralFuseはメモリアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - Lyapunov-Driven Deep Reinforcement Learning for Edge Inference Empowered
by Reconfigurable Intelligent Surfaces [30.1512069754603]
本稿では,ワイヤレスエッジにおけるエネルギー効率,低レイテンシ,高精度な推論のための新しいアルゴリズムを提案する。
本稿では,新しいデータを一連のデバイスで連続的に生成・収集し,動的キューシステムを通じて処理するシナリオについて考察する。
論文 参考訳(メタデータ) (2023-05-18T12:46:42Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Energy awareness in low precision neural networks [41.69995577490698]
電力消費は、エンドデバイスにディープニューラルネットワーク(DNN)を配置する際の大きな障害である。
低消費電力の固定精度変種を用いて全精度ネットワークを近似するための簡単なアプローチであるPANNを提案する。
従来の手法とは対照的に、PANNは2ビット量子化変量器のパワーバッジで作業する場合でも、ネットワークの完全精度バージョンであるW.r.t.の精度をわずかに低下させるだけである。
論文 参考訳(メタデータ) (2022-02-06T14:44:55Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - Automatic heterogeneous quantization of deep neural networks for
low-latency inference on the edge for particle detectors [5.609098985493794]
我々は,チップ上での最小エネルギー,高精度,ナノ秒の推論,完全自動展開のための,深層ニューラルネットワークモデルの最適ヘテロジニゼーションバージョンを設計する手法を提案する。
これはCERN大型ハドロン衝突型加速器における陽子-陽子衝突におけるイベント選択の手順に不可欠であり、リソースは厳密に制限され、$mathcal O(1)mu$sのレイテンシが要求される。
論文 参考訳(メタデータ) (2020-06-15T15:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。