論文の概要: Reinforcement Learning for Minimizing Age of Information in Real-time
Internet of Things Systems with Realistic Physical Dynamics
- arxiv url: http://arxiv.org/abs/2104.01527v1
- Date: Sun, 4 Apr 2021 03:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:14:59.396451
- Title: Reinforcement Learning for Minimizing Age of Information in Real-time
Internet of Things Systems with Realistic Physical Dynamics
- Title(参考訳): リアルな物理力学を持つリアルタイムモノのインターネットシステムにおける情報年齢最小化のための強化学習
- Authors: Sihua Wang, Mingzhe Chen, Zhaohui Yang, Changchuan Yin, Walid Saad,
Shuguang Cui, H. Vincent Poor
- Abstract要約: 本稿では,インターネット・オブ・モノ(IoT)デバイスにおける情報量(AoI)と総エネルギー消費の重み付けを最小化する問題について検討する。
サンプリングポリシを最適化するために,分散強化学習手法を提案する。
PM 2.5公害の実データを用いたシミュレーションでは、提案アルゴリズムがAoIの合計を最大17.8%および33.9%削減できることが示された。
- 参考スコア(独自算出の注目度): 158.67956699843168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the problem of minimizing the weighted sum of age of
information (AoI) and total energy consumption of Internet of Things (IoT)
devices is studied. In the considered model, each IoT device monitors a
physical process that follows nonlinear dynamics. As the dynamics of the
physical process vary over time, each device must find an optimal sampling
frequency to sample the real-time dynamics of the physical system and send
sampled information to a base station (BS). Due to limited wireless resources,
the BS can only select a subset of devices to transmit their sampled
information. Meanwhile, changing the sampling frequency will also impact the
energy used by each device for sampling and information transmission. Thus, it
is necessary to jointly optimize the sampling policy of each device and the
device selection scheme of the BS so as to accurately monitor the dynamics of
the physical process using minimum energy. This problem is formulated as an
optimization problem whose goal is to minimize the weighted sum of AoI cost and
energy consumption. To solve this problem, a distributed reinforcement learning
approach is proposed to optimize the sampling policy. The proposed learning
method enables the IoT devices to find the optimal sampling policy using their
local observations. Given the sampling policy, the device selection scheme can
be optimized so as to minimize the weighted sum of AoI and energy consumption
of all devices. Simulations with real data of PM 2.5 pollution show that the
proposed algorithm can reduce the sum of AoI by up to 17.8% and 33.9% and the
total energy consumption by up to 13.2% and 35.1%, compared to a conventional
deep Q network method and a uniform sampling policy.
- Abstract(参考訳): 本稿では,インターネット・オブ・モノ(IoT)デバイスにおける情報量(AoI)と総エネルギー消費の重み付けを最小化する問題について検討する。
検討されたモデルでは、各IoTデバイスは、非線形ダイナミクスに従う物理プロセスを監視する。
物理過程のダイナミクスは時間とともに変化するため、各デバイスは物理系のリアルタイムダイナミクスをサンプリングし、サンプル情報を基地局(BS)に送信するために最適なサンプリング周波数を見つけなければならない。
無線リソースが限られているため、BSはサンプル情報を送信するためのデバイスのサブセットのみを選択できる。
一方、サンプリング周波数の変更は、各デバイスがサンプリングと情報伝達に使用するエネルギーにも影響を及ぼす。
したがって、最小エネルギーを用いて物理プロセスのダイナミクスを正確に監視するために、各装置のサンプリングポリシーとBSのデバイス選択方式を協調的に最適化する必要がある。
この問題はAoIコストとエネルギー消費の重み付けを最小化する最適化問題として定式化されている。
この問題を解決するために,サンプリングポリシーを最適化するための分散強化学習手法を提案する。
提案した学習手法により,IoTデバイスは局所的な観測から最適なサンプリングポリシーを見つけることができる。
サンプリングポリシを前提として、AoIの重み付け和と全デバイスのエネルギー消費を最小化するために、デバイス選択方式を最適化することができる。
pm 2.5 汚染の実データを用いたシミュレーションでは、従来のディープqネットワーク法や一様サンプリングポリシーと比較して、aoiの合計を最大17.8%、33.9%、総エネルギー消費量を最大13.2%、35.1%削減できることを示した。
関連論文リスト
- Automatic AI Model Selection for Wireless Systems: Online Learning via Digital Twinning [50.332027356848094]
AIベースのアプリケーションは、スケジューリングや電力制御などの機能を実行するために、インテリジェントコントローラにデプロイされる。
コンテキストとAIモデルのパラメータのマッピングは、ゼロショット方式で理想的に行われる。
本稿では,AMSマッピングのオンライン最適化のための一般的な手法を紹介する。
論文 参考訳(メタデータ) (2024-06-22T11:17:50Z) - Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Sample-Driven Federated Learning for Energy-Efficient and Real-Time IoT
Sensing [22.968661040226756]
我々は,ソフトアクター・クリティカル(A2C)フレームワーク上に構築されたSCFL(Sample-driven Control for Federated Learning)というオンライン強化学習アルゴリズムを導入する。
SCFLにより、エージェントは動的に適応し、変化する環境においてもグローバルな最適条件を見つけることができる。
論文 参考訳(メタデータ) (2023-10-11T13:50:28Z) - Deep Reinforcement Learning Based Power Allocation for Minimizing AoI
and Energy Consumption in MIMO-NOMA IoT Systems [27.19355345123451]
マルチインプットマルチアウトおよび非直交マルチアクセス(MIMO-NOMA)インターネットオブシング(IoT)システムは、リアルタイムアプリケーションをサポートするために、チャネル容量とスペクトル効率をはっきりと改善することができる。
情報時代(AoI)はリアルタイム応用にとって重要な指標であるが,AoIを最小化する文献は存在しない。
MIMO-NOMA IoTシステムでは,SICプロセスでは伝送速度が一定ではなく,ノイズも一定である。
深部強化学習(DRL)に基づくMIMO-NOMA IoTシステム
論文 参考訳(メタデータ) (2023-03-11T14:09:46Z) - Resource Allocation of Federated Learning for the Metaverse with Mobile
Augmented Reality [13.954907748381743]
モバイル拡張現実(MAR)によるメタバースアプリケーションは、デジタルデータを現実世界と混在させるために、迅速かつ正確なオブジェクト検出を必要とする。
フェデレートラーニング(FL)は、プライバシ保護の特性から興味深い分散機械学習アプローチである。
本稿では,全エネルギー消費,完了時間,モデル精度の重み付けを最小化するために最適化問題を定式化する。
論文 参考訳(メタデータ) (2022-11-16T06:37:32Z) - Joint Optimization of Energy Consumption and Completion Time in
Federated Learning [16.127019859725785]
フェデレートラーニング(FL)は、プライバシ保護の特性から興味深い分散機械学習アプローチである。
エネルギーと実行遅延の間のトレードオフをバランスさせるアルゴリズムを定式化し、異なる要求とアプリケーションシナリオに対応する。
論文 参考訳(メタデータ) (2022-09-29T16:05:28Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Fine-Grained Data Selection for Improved Energy Efficiency of Federated
Edge Learning [2.924868086534434]
フェデレーションエッジ学習(FEEL)では、ネットワークエッジのエネルギー制約されたデバイスは、ローカル機械学習モデルをトレーニングおよびアップロードする際にかなりのエネルギーを消費する。
本研究は, ローカルトレーニングデータ, 利用可能な計算, 通信資源を共同で検討し, エネルギー効率の高い FEEL の新たなソリューションを提案する。
論文 参考訳(メタデータ) (2021-06-20T10:51:32Z) - Multi-Agent Meta-Reinforcement Learning for Self-Powered and Sustainable
Edge Computing Systems [87.4519172058185]
エッジコンピューティング機能を有するセルフパワー無線ネットワークの効率的なエネルギー分配機構について検討した。
定式化問題を解くために,新しいマルチエージェントメタ強化学習(MAMRL)フレームワークを提案する。
実験の結果、提案されたMAMRLモデルは、再生不可能なエネルギー使用量を最大11%削減し、エネルギーコストを22.4%削減できることが示された。
論文 参考訳(メタデータ) (2020-02-20T04:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。