論文の概要: tinyMAN: Lightweight Energy Manager using Reinforcement Learning for
Energy Harvesting Wearable IoT Devices
- arxiv url: http://arxiv.org/abs/2202.09297v1
- Date: Fri, 18 Feb 2022 16:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 15:45:33.653806
- Title: tinyMAN: Lightweight Energy Manager using Reinforcement Learning for
Energy Harvesting Wearable IoT Devices
- Title(参考訳): littleMAN: ウェアラブルIoTデバイスのための強化学習を用いた軽量エネルギーマネージャ
- Authors: Toygun Basaklar, Yigit Tuncel, and Umit Y. Ogras
- Abstract要約: 環境源からのエネルギー収穫は、低エネルギーのウェアラブルデバイスを動かすための有望な解決策である。
本稿では,リソース制約のあるウェアラブルIoTデバイスを対象とした,強化学習に基づくエネルギー管理フレームワークであるMintMANを提案する。
littleMANは2.36ms未満と27.75mu$Jを達成し、従来のアプローチに比べて最大45%高いユーティリティを維持している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Advances in low-power electronics and machine learning techniques lead to
many novel wearable IoT devices. These devices have limited battery capacity
and computational power. Thus, energy harvesting from ambient sources is a
promising solution to power these low-energy wearable devices. They need to
manage the harvested energy optimally to achieve energy-neutral operation,
which eliminates recharging requirements. Optimal energy management is a
challenging task due to the dynamic nature of the harvested energy and the
battery energy constraints of the target device. To address this challenge, we
present a reinforcement learning-based energy management framework, tinyMAN,
for resource-constrained wearable IoT devices. The framework maximizes the
utilization of the target device under dynamic energy harvesting patterns and
battery constraints. Moreover, tinyMAN does not rely on forecasts of the
harvested energy which makes it a prediction-free approach. We deployed tinyMAN
on a wearable device prototype using TensorFlow Lite for Micro thanks to its
small memory footprint of less than 100 KB. Our evaluations show that tinyMAN
achieves less than 2.36 ms and 27.75 $\mu$J while maintaining up to 45% higher
utility compared to prior approaches.
- Abstract(参考訳): 低消費電力エレクトロニクスと機械学習技術の進歩は、多くの新しいウェアラブルIoTデバイスにつながる。
これらのデバイスはバッテリー容量と計算能力に制限がある。
したがって、環境源からのエネルギー回収は、これらの低エネルギーのウェアラブルデバイスを動かすための有望な解決策である。
エネルギー中立運転を達成するためには、収穫したエネルギーを最適に管理する必要がある。
最適エネルギー管理は、収穫エネルギーの動的性質と目標装置の電池エネルギーの制約のために難しい課題である。
この課題に対処するために、リソース制約のあるウェアラブルIoTデバイスに対して、強化学習に基づくエネルギー管理フレームワークである littleMAN を提案する。
このフレームワークは、動的エネルギー収穫パターンとバッテリ制約の下でターゲットデバイスの利用を最大化する。
さらに、tinymanは収穫エネルギーの予測に依存しておらず、予測なしのアプローチとなっている。
私たちは、100KB未満のメモリフットプリントのおかげで、TensorFlow Lite for Microを使用したウェアラブルデバイスのプロトタイプに小さなMANをデプロイしました。
評価の結果,SmallMANは2.36ms未満で27.75$\mu$Jを達成できる一方で,従来のアプローチに比べて最大45%高い実用性を維持していることがわかった。
関連論文リスト
- Intelligent Duty Cycling Management and Wake-up for Energy Harvesting IoT Networks with Correlated Activity [43.00680041385538]
本稿では,IoTデバイスが動作を維持するためのエネルギー回収能力に完全に依存する,エネルギーニュートラルなモノのインターネット(IoT)シナリオに対するアプローチを提案する。
我々は,IoTDの動作状態と伝送状態を表現するためにマルコフチェーン,エネルギー回収過程をモデル化する変調ポアソンプロセス,電池状態をモデル化する離散時間マルコフチェーンを使用する。
我々は、エネルギー効率と検出精度のトレードオフを打つことを目的とした、K近傍の近隣住民を対象としたデューティサイクル管理を提案する。
論文 参考訳(メタデータ) (2024-05-10T10:16:27Z) - ecoBLE: A Low-Computation Energy Consumption Prediction Framework for
Bluetooth Low Energy [9.516475567386768]
Bluetooth Low Energy (BLE) はモノのインターネット(IoT)アプリケーションのためのデファクト技術であり、非常に低エネルギー消費を約束している。
本稿では,Long Short-Term Memory Projection (LSTMP)ベースのBLEエネルギー消費予測フレームワークを提案する。
提案手法は, 平均絶対パーセンテージ誤差 (MAPE) を最大12%とすることで, 異なるBLEノードのエネルギー消費を予測する。
論文 参考訳(メタデータ) (2023-08-02T13:04:23Z) - Sustainable Edge Intelligence Through Energy-Aware Early Exiting [0.726437825413781]
EHエッジインテリジェンスシステムにおいて,エネルギー適応型動的早期退避を提案する。
提案手法は, サンプルごとの最適計算量を決定する, エネルギー対応のEEポリシーを導出する。
その結果, エネルギーに依存しない政策と比較して, 精度は25%, サービスレートは35%向上した。
論文 参考訳(メタデータ) (2023-05-23T14:17:44Z) - Distributed Energy Management and Demand Response in Smart Grids: A
Multi-Agent Deep Reinforcement Learning Framework [53.97223237572147]
本稿では、自律制御と再生可能エネルギー資源のスマート電力グリッドシステムへの統合のための多エージェント深層強化学習(DRL)フレームワークを提案する。
特に,提案フレームワークは,住宅利用者に対する需要応答 (DR) と分散エネルギー管理 (DEM) を共同で検討している。
論文 参考訳(メタデータ) (2022-11-29T01:18:58Z) - Adaptive Energy Management for Self-Sustainable Wearables in Mobile
Health [21.97214707198675]
ウェアラブルデバイスの小さなフォームファクタは、バッテリーのサイズと寿命を制限します。
ウェアラブル機器の持続可能な運用に有効な方法として、エネルギー収穫が出現している。
本稿では, 蓄電池エネルギーを補充し, ユーザによる手動充電を減らすことで, 自己維持可能なウェアラブルを目標とする適応型エネルギー管理の新たな課題について検討する。
論文 参考訳(メタデータ) (2022-01-16T23:49:20Z) - Learning, Computing, and Trustworthiness in Intelligent IoT
Environments: Performance-Energy Tradeoffs [62.91362897985057]
Intelligent IoT Environment(iIoTe)は、半自律IoTアプリケーションを協調実行可能な異種デバイスで構成されている。
本稿では,これらの技術の現状を概観し,その機能と性能,特にリソース,レイテンシ,プライバシ,エネルギー消費のトレードオフに注目した。
論文 参考訳(メタデータ) (2021-10-04T19:41:42Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - ECO: Enabling Energy-Neutral IoT Devices through Runtime Allocation of
Harvested Energy [0.8774604259603302]
本稿では,エネルギー制約下での目標デバイスの有用性を最適化するランタイムベースのエネルギー配分フレームワークを提案する。
提案フレームワークは, 効率的な反復アルゴリズムを用いて, 初期エネルギー割り当てを1日の初めに計算する。
このフレームワークは、太陽と運動エネルギーの収穫モードと、4772の異なるユーザーからのアメリカンタイムユースサーベイデータを使用して評価します。
論文 参考訳(メタデータ) (2021-02-26T17:21:25Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。