論文の概要: Enabling Super-Fast Deep Learning on Tiny Energy-Harvesting IoT Devices
- arxiv url: http://arxiv.org/abs/2111.14051v1
- Date: Sun, 28 Nov 2021 04:55:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:33:52.662976
- Title: Enabling Super-Fast Deep Learning on Tiny Energy-Harvesting IoT Devices
- Title(参考訳): Tiny Energy-Harvesting IoTデバイスによる超高速ディープラーニングの実現
- Authors: Sahidul Islam and Jieren Deng and Shanglin Zhou and Chen Pan and
Caiwen Ding and Mimi Xie
- Abstract要約: エネルギー回収装置は、電池なしで断続的に作動する。
EHデバイスにメモリ集約アルゴリズムを実装することは、限られたリソースと断続的な電力供給のために非常に困難である。
本稿では,低エネルギー加速器による超高速深層学習を実現する手法を提案する。
- 参考スコア(独自算出の注目度): 3.070669432211866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Energy harvesting (EH) IoT devices that operate intermittently without
batteries, coupled with advances in deep neural networks (DNNs), have opened up
new opportunities for enabling sustainable smart applications. Nevertheless,
implementing those computation and memory-intensive intelligent algorithms on
EH devices is extremely difficult due to the challenges of limited resources
and intermittent power supply that causes frequent failures. To address those
challenges, this paper proposes a methodology that enables super-fast deep
learning with low-energy accelerators for tiny energy harvesting devices. We
first propose RAD, a resource-aware structured DNN training framework, which
employs block circulant matrix with ADMM to achieve high compression and model
quantization for leveraging the advantage of various vector operation
accelerators. A DNN implementation method, ACE, is then proposed that employs
low-energy accelerators to profit maximum performance with minor energy
consumption. Finally, we further design FLEX, the system support for
intermittent computation in energy harvesting situations. Experimental results
from three different DNN models demonstrate that RAD, ACE, and FLEX can enable
super-fast and correct inference on energy harvesting devices with up to 4.26X
runtime reduction, up to 7.7X energy reduction with higher accuracy over the
state-of-the-art.
- Abstract(参考訳): バッテリーなしで断続的に動作するエネルギ収穫(EH)IoTデバイスと、ディープニューラルネットワーク(DNN)の進歩が相まって、持続可能なスマートアプリケーションを実現する新たな機会が開かれた。
それでも、限られたリソースと頻繁な障害を引き起こす断続的な電源の課題のため、これらの計算とメモリ集約型インテリジェントアルゴリズムをEHデバイスに実装することは極めて困難である。
これらの課題に対処するために,低エネルギー加速器による超高速深層学習を実現する手法を提案する。
我々はまず,ADMMを用いたブロック循環行列を用いた資源認識型DNNトレーニングフレームワークRADを提案し,各種ベクトル演算アクセラレータの利点を生かした高圧縮およびモデル量子化を実現する。
DNNの実装手法であるACEが提案され、低エネルギー加速器を用いて小型エネルギー消費による最大性能を向上する。
最後に,エネルギ収穫環境における間欠計算のシステムサポートであるflexをさらに設計する。
3つの異なるDNNモデルによる実験結果から、RAD、ACE、FLEXは最大4.26倍のエネルギー収穫装置で最大7.7倍のエネルギー削減が可能であり、最先端技術よりも精度が高いことが示されている。
関連論文リスト
- TSB: Tiny Shared Block for Efficient DNN Deployment on NVCIM Accelerators [11.496631244103773]
Tiny Shared Block (TSB)"は、小さな共有1x1畳み込みブロックをDeep Neural Networkアーキテクチャに統合する。
TSBは、20倍以上の推論精度ギャップの改善、5倍以上のトレーニングスピードアップ、デバイス間マッピングコストの削減を実現している。
論文 参考訳(メタデータ) (2024-05-08T20:53:38Z) - Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization [1.0235078178220354]
本稿では, プルーニングと量子化を併用してハードウェアに配慮したディープニューラルネットワーク(DNN)の自動圧縮フレームワークを提案する。
われわれのフレームワークはデータセットの平均エネルギー消費量を39%減らし、平均精度損失を1.7%減らし、最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-23T18:50:13Z) - Multi-Objective Optimization for UAV Swarm-Assisted IoT with Virtual
Antenna Arrays [55.736718475856726]
無人航空機(UAV)ネットワークはIoT(Internet-of-Things)を支援するための有望な技術である
既存のUAV支援データ収集および普及スキームでは、UAVはIoTとアクセスポイントの間を頻繁に飛行する必要がある。
協調ビームフォーミングをIoTとUAVに同時に導入し、エネルギーと時間効率のデータ収集と普及を実現した。
論文 参考訳(メタデータ) (2023-08-03T02:49:50Z) - Sustainable Edge Intelligence Through Energy-Aware Early Exiting [0.726437825413781]
EHエッジインテリジェンスシステムにおいて,エネルギー適応型動的早期退避を提案する。
提案手法は, サンプルごとの最適計算量を決定する, エネルギー対応のEEポリシーを導出する。
その結果, エネルギーに依存しない政策と比較して, 精度は25%, サービスレートは35%向上した。
論文 参考訳(メタデータ) (2023-05-23T14:17:44Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Energy-efficient DNN Inference on Approximate Accelerators Through
Formal Property Exploration [1.0323063834827415]
本稿では、近似型ディープニューラルネットワーク(DNN)のための重み付け近似マッピングのための自動フレームワークを提案する。
MAC単位レベルでは、エネルギー利得の点で既にエネルギー効率のよいマッピングを2ドル以上超えた。
論文 参考訳(メタデータ) (2022-07-25T17:07:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Intermittent Inference with Nonuniformly Compressed Multi-Exit Neural
Network for Energy Harvesting Powered Devices [17.165614326127287]
この研究は、EH(Energy-harvesting)駆動デバイスに対して、永続的でイベント駆動のセンシングと意思決定機能を実現することを目的としている。
我々は,マルチ出口ニューラルネットワークをEHマイクロコントローラに圧縮・展開するためのパワートレース認識および出口誘導型ネットワーク圧縮アルゴリズムを開発した。
実験は最先端技術と比較して精度とレイテンシが優れている。
論文 参考訳(メタデータ) (2020-04-23T16:19:22Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。