論文の概要: Intermittent Inference with Nonuniformly Compressed Multi-Exit Neural
Network for Energy Harvesting Powered Devices
- arxiv url: http://arxiv.org/abs/2004.11293v2
- Date: Thu, 23 Jul 2020 17:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:10:34.405441
- Title: Intermittent Inference with Nonuniformly Compressed Multi-Exit Neural
Network for Energy Harvesting Powered Devices
- Title(参考訳): エネルギー収穫パワーデバイスのための非一様圧縮マルチエクイットニューラルネットワークによる間欠的推論
- Authors: Yawen Wu, Zhepeng Wang, Zhenge Jia, Yiyu Shi, Jingtong Hu
- Abstract要約: この研究は、EH(Energy-harvesting)駆動デバイスに対して、永続的でイベント駆動のセンシングと意思決定機能を実現することを目的としている。
我々は,マルチ出口ニューラルネットワークをEHマイクロコントローラに圧縮・展開するためのパワートレース認識および出口誘導型ネットワーク圧縮アルゴリズムを開発した。
実験は最先端技術と比較して精度とレイテンシが優れている。
- 参考スコア(独自算出の注目度): 17.165614326127287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work aims to enable persistent, event-driven sensing and decision
capabilities for energy-harvesting (EH)-powered devices by deploying
lightweight DNNs onto EH-powered devices. However, harvested energy is usually
weak and unpredictable and even lightweight DNNs take multiple power cycles to
finish one inference. To eliminate the indefinite long wait to accumulate
energy for one inference and to optimize the accuracy, we developed a power
trace-aware and exit-guided network compression algorithm to compress and
deploy multi-exit neural networks to EH-powered microcontrollers (MCUs) and
select exits during execution according to available energy. The experimental
results show superior accuracy and latency compared with state-of-the-art
techniques.
- Abstract(参考訳): 本研究の目的は、EH駆動デバイスに軽量DNNをデプロイすることで、EH(Energy-harvesting)駆動デバイスに対して永続的でイベント駆動のセンシングおよび決定機能を実現することである。
しかし、収穫エネルギーは通常弱く予測不可能であり、軽量のDNNでも1つの推論を終わらせるために複数のサイクルを要している。
1つの推論のためにエネルギーを蓄積し、その精度を最適化するために、複数のエグジットニューラルネットワークをeh駆動マイクロコントローラ(mcu)に圧縮し、実行中にエグジットを選択するためのパワートレース認識およびエグジット誘導ネットワーク圧縮アルゴリズムを開発した。
実験の結果,最先端技術と比較して精度とレイテンシが優れていた。
関連論文リスト
- Energy-Aware Dynamic Neural Inference [39.04688735618206]
エネルギーハーベスターと有限容量エネルギーストレージを備えたオンデバイス適応型推論システムを提案する。
環境エネルギーの速度が増加するにつれて、エネルギー・信頼性を考慮した制御方式は精度を約5%向上させることが示されている。
我々は、信頼性を意識し、認識できないコントローラを理論的に保証する原則的なポリシーを導出する。
論文 参考訳(メタデータ) (2024-11-04T16:51:22Z) - Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization [1.0235078178220354]
本稿では, プルーニングと量子化を併用してハードウェアに配慮したディープニューラルネットワーク(DNN)の自動圧縮フレームワークを提案する。
われわれのフレームワークはデータセットの平均エネルギー消費量を39%減らし、平均精度損失を1.7%減らし、最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-23T18:50:13Z) - PolyThrottle: Energy-efficient Neural Network Inference on Edge Devices [10.01838504586422]
ML駆動システムの連続運転は、推論中にかなりのエネルギー消費をもたらす。
本稿では,GPU,メモリ,CPU周波数などのデバイス上のハードウェア要素の構成が,通常の微調整によるNN推論のエネルギー消費に与える影響について検討する。
本稿では,Constrained Bayesian Optimization を用いて,各ハードウェアコンポーネント間の構成をエネルギー保存的に最適化するPolyThrottleを提案する。
論文 参考訳(メタデータ) (2023-10-30T20:19:41Z) - Multiagent Reinforcement Learning with an Attention Mechanism for
Improving Energy Efficiency in LoRa Networks [52.96907334080273]
ネットワーク規模が大きくなるにつれて、パケット衝突によるLoRaネットワークのエネルギー効率は急激に低下する。
マルチエージェント強化学習(MALoRa)に基づく伝送パラメータ割り当てアルゴリズムを提案する。
シミュレーションの結果,MALoRaはベースラインアルゴリズムと比較してシステムEEを著しく改善することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:37:23Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - PowerPruning: Selecting Weights and Activations for Power-Efficient
Neural Network Acceleration [8.72556779535502]
本稿では、MAC演算における電力消費の低減につながる重みを選択することにより、デジタルニューラルネットワークアクセラレーターにおける消費電力を低減する新しい手法を提案する。
再トレーニングと合わせて,ハードウェア上でのDNNの消費電力を78.3%削減する手法を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:52:07Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Enabling Super-Fast Deep Learning on Tiny Energy-Harvesting IoT Devices [3.070669432211866]
エネルギー回収装置は、電池なしで断続的に作動する。
EHデバイスにメモリ集約アルゴリズムを実装することは、限られたリソースと断続的な電力供給のために非常に困難である。
本稿では,低エネルギー加速器による超高速深層学習を実現する手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T04:55:41Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - InstantNet: Automated Generation and Deployment of Instantaneously
Switchable-Precision Networks [65.78061366594106]
可変ビット幅で動作する即時切替可能精度ネットワークを自動生成・展開するInstantNetを提案する。
実験では、提案されたInstantNetは最先端の設計を一貫して上回っている。
論文 参考訳(メタデータ) (2021-04-22T04:07:43Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。