論文の概要: Reinforcement Learning-based Task Offloading in the Internet of Wearable Things
- arxiv url: http://arxiv.org/abs/2510.07487v1
- Date: Wed, 08 Oct 2025 19:36:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.695643
- Title: Reinforcement Learning-based Task Offloading in the Internet of Wearable Things
- Title(参考訳): ウェアラブルモノのインターネットにおける強化学習型タスクオフロード
- Authors: Waleed Bin Qaim, Aleksandr Ometov, Claudia Campolo, Antonella Molinaro, Elena Simona Lohan, Jari Nurmi,
- Abstract要約: ウェアラブルモノのインターネット(IoWT)における強化学習(RL)に基づくタスクオフロードのためのフレームワークを提案する。
エネルギー消費とタスク達成時間のトレードオフを考慮したタスクオフロードプロセスの定式化を行う。
我々はQ-ラーニング技術を用いて、ウェアラブルデバイスが事前の知識を使わずに最適なタスクオフロード決定を行えるようにする。
- 参考スコア(独自算出の注目度): 35.87301608329458
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the years, significant contributions have been made by the research and industrial sectors to improve wearable devices towards the Internet of Wearable Things (IoWT) paradigm. However, wearables are still facing several challenges. Many stem from the limited battery power and insufficient computation resources available on wearable devices. On the other hand, with the popularity of smart wearables, there is a consistent increase in the development of new computationally intensive and latency-critical applications. In such a context, task offloading allows wearables to leverage the resources available on nearby edge devices to enhance the overall user experience. This paper proposes a framework for Reinforcement Learning (RL)-based task offloading in the IoWT. We formulate the task offloading process considering the tradeoff between energy consumption and task accomplishment time. Moreover, we model the task offloading problem as a Markov Decision Process (MDP) and utilize the Q-learning technique to enable the wearable device to make optimal task offloading decisions without prior knowledge. We evaluate the performance of the proposed framework through extensive simulations for various applications and system configurations conducted in the ns-3 network simulator. We also show how varying the main system parameters of the Q-learning algorithm affects the overall performance in terms of average task accomplishment time, average energy consumption, and percentage of tasks offloaded.
- Abstract(参考訳): 長年にわたり、ウェアラブルデバイスをIoWT(Internet of Wearable Things)パラダイムに進化させるために、研究部門や産業部門によって重要な貢献がなされてきた。
しかし、ウェアラブルはまだいくつかの課題に直面している。
多くは、ウェアラブルデバイスで利用可能な限られたバッテリー電力と不十分な計算資源に由来する。
一方、スマートウェアラブルの普及に伴い、新しい計算集約型および遅延クリティカルなアプリケーションの開発が一貫して増加している。
このような状況下では、タスクオフロードにより、ウェアラブルは近くのエッジデバイスで利用可能なリソースを活用して、全体的なユーザエクスペリエンスを向上させることができる。
本稿では、IoWTにおける強化学習(RL)に基づくタスクオフロードのためのフレームワークを提案する。
エネルギー消費とタスク達成時間のトレードオフを考慮したタスクオフロードプロセスの定式化を行う。
さらに,タスクオフロード問題をマルコフ決定プロセス (MDP) としてモデル化し,Q-ラーニング技術を用いて,事前知識なく最適なタスクオフロード決定を可能にする。
ns-3ネットワークシミュレータで行った様々なアプリケーションやシステム構成の広範なシミュレーションにより,提案手法の性能を評価する。
また,Q-Learningアルゴリズムの主なシステムパラメータの変化が,平均タスク達成時間,平均エネルギー消費量,オフロードされたタスクの割合など,全体のパフォーマンスにどのように影響するかを示す。
関連論文リスト
- Joint Resource Management for Energy-efficient UAV-assisted SWIPT-MEC: A Deep Reinforcement Learning Approach [50.52139512096988]
6G Internet of Things (IoT)ネットワークは、地上インフラストラクチャが利用できない遠隔地や災害シナリオにおいて、課題に直面している。
本稿では、指向性アンテナにより強化された新しい無人航空機(UAV)支援コンピューティングシステムを提案する。
論文 参考訳(メタデータ) (2025-05-06T06:46:19Z) - Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - Task Graph offloading via Deep Reinforcement Learning in Mobile Edge Computing [6.872434270841794]
本稿では,エッジコンピューティングデバイスの時間変化を考慮したMECにおけるタスクグラフのオフロードについて検討する。
環境変化に対応するために,計算オフロードのためのタスクグラフスケジューリングをマルコフ決定プロセスとしてモデル化する。
そこで我々は,環境とのインタラクションからタスクスケジューリング戦略を学習するために,深層強化学習アルゴリズム(SATA-DRL)を設計する。
論文 参考訳(メタデータ) (2023-09-19T12:26:56Z) - FELARE: Fair Scheduling of Machine Learning Applications on
Heterogeneous Edge Systems [5.165692107696155]
エッジコンピューティングは、レイテンシに敏感な機械学習(ML)アプリケーションの同時実行と継続的実行を通じて、スマートIoTベースのシステムを実現する。
エネルギー制約を考慮しつつ、リアルタイムタスク完了率を向上させるリソース割当ソリューションを検討、分析する。
作業完了率の8.9%,省エネ率の12.6%はエッジシステムに大きなオーバーヘッドを伴わずに改善した。
論文 参考訳(メタデータ) (2022-05-31T19:19:40Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Green Offloading in Fog-Assisted IoT Systems: An Online Perspective
Integrating Learning and Control [20.68436820937947]
フォグアシスト型IoTシステムでは、タスク処理のレイテンシとエネルギー消費を減らすために、IoTデバイスから近隣のフォグノードにタスクをオフロードすることが一般的である。
本稿では,時間平均エネルギー消費の長期的制約を伴うマルチアームバンディット(CMAB)問題として,未知のシステムダイナミクスによるタスクオフロード問題を定式化する。
オンライン学習とオンライン制御の効果的な統合により,テキスト学習支援グリーンオフロード(LAGO)方式を提案する。
論文 参考訳(メタデータ) (2020-08-01T07:27:24Z) - Federated Learning for Task and Resource Allocation in Wireless High
Altitude Balloon Networks [160.96150373385768]
移動エッジコンピューティング(MEC)対応バルーンネットワークにおいて,タスク計算と伝送におけるエネルギーと時間消費の最小化の問題について検討した。
サポートベクトルマシン(SVM)に基づくフェデレーション学習(FL)アルゴリズムを提案する。
提案したSVMベースのFL法では,各HABが協調してSVMモデルを構築し,すべてのユーザアソシエーションを決定できる。
論文 参考訳(メタデータ) (2020-03-19T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。