論文の概要: (DEMO) Deep Reinforcement Learning Based Resource Allocation in Distributed IoT Systems
- arxiv url: http://arxiv.org/abs/2508.19318v1
- Date: Tue, 26 Aug 2025 13:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.375444
- Title: (DEMO) Deep Reinforcement Learning Based Resource Allocation in Distributed IoT Systems
- Title(参考訳): (DEMO)分散IoTシステムにおける深層強化学習に基づくリソース割り当て
- Authors: Aohan Li, Miyu Tsuzuki,
- Abstract要約: 本稿では,実世界の分散IoT環境での深層強化学習モデルをトレーニングするための新しいフレームワークを提案する。
提案フレームワークでは,DRLモデルがフィードバック情報でトレーニングされるのに対して,IoTデバイスはDRLベースの方法で通信チャネルを選択する。
- 参考スコア(独自算出の注目度): 0.24923006485141283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Reinforcement Learning (DRL) has emerged as an efficient approach to resource allocation due to its strong capability in handling complex decision-making tasks. However, only limited research has explored the training of DRL models with real-world data in practical, distributed Internet of Things (IoT) systems. To bridge this gap, this paper proposes a novel framework for training DRL models in real-world distributed IoT environments. In the proposed framework, IoT devices select communication channels using a DRL-based method, while the DRL model is trained with feedback information. Specifically, Acknowledgment (ACK) information is obtained from actual data transmissions over the selected channels. Implementation and performance evaluation, in terms of Frame Success Rate (FSR), are carried out, demonstrating both the feasibility and the effectiveness of the proposed framework.
- Abstract(参考訳): 深層強化学習(DRL)は、複雑な意思決定タスクの処理能力の強いため、リソース割り当てに対する効率的なアプローチとして登場した。
しかし、実際の分散IoT(Internet of Things)システムにおいて、DRLモデルと実世界のデータとのトレーニングについて、限られた研究しか行われていない。
このギャップを埋めるために、現実世界の分散IoT環境でDRLモデルをトレーニングするための新しいフレームワークを提案する。
提案フレームワークでは,DRLをベースとした通信チャネルを選択し,DRLモデルをフィードバック情報でトレーニングする。
具体的には、選択したチャネル上の実際のデータ送信から、Accnowledgment(ACK)情報を取得する。
フレーム成功率(FSR)の観点で実装と性能評価を行い,提案フレームワークの有効性と有効性の両方を実証した。
関連論文リスト
- Scaling DRL for Decision Making: A Survey on Data, Network, and Training Budget Strategies [66.83950068218033]
スケーリング法則は、モデルのパラメータとトレーニングデータによって学習のパフォーマンスが向上することを示している。
性能向上の可能性にもかかわらず、スケーリング法則を深層強化学習に統合することは、完全には実現されていない。
本稿では,データ,ネットワーク,トレーニング予算という3次元のスケーリング戦略を体系的に分析することによって,このギャップに対処する。
論文 参考訳(メタデータ) (2025-08-05T08:03:12Z) - Yes, Q-learning Helps Offline In-Context RL [69.26691452160505]
本研究では,オフラインのテキスト内強化学習フレームワークにおけるRL目標の統合について検討する。
RL目標の最適化は、広く採用されているアルゴリズム蒸留(AD)と比較して、平均で約30%向上することを示した。
私たちの結果は、バリュー学習中に保守性を追加することで、テストされたほぼすべての設定にさらなる改善がもたらされることも示しています。
論文 参考訳(メタデータ) (2025-02-24T21:29:06Z) - ROLeR: Effective Reward Shaping in Offline Reinforcement Learning for Recommender Systems [14.74207332728742]
オフライン強化学習(RL)は,実世界のレコメンデーションシステムに有効なツールである。
本稿では,リコメンダシステムのためのオフライン強化学習における報酬と不確実性評価のためのモデルベースReward Shapingを提案する。
論文 参考訳(メタデータ) (2024-07-18T05:07:11Z) - Digital Twin Assisted Deep Reinforcement Learning for Online Admission
Control in Sliced Network [19.152875040151976]
この問題に対処するために、ディジタルツイン(DT)高速化DRLソリューションを提案する。
ニューラルネットワークベースのDTは、システムをキューイングするためのカスタマイズされた出力層を備え、教師付き学習を通じてトレーニングされ、DRLモデルのトレーニングフェーズを支援するために使用される。
DT加速DRLは、直接訓練された最先端Q-ラーニングモデルと比較して、リソース利用率を40%以上向上させる。
論文 参考訳(メタデータ) (2023-10-07T09:09:19Z) - Making Offline RL Online: Collaborative World Models for Offline Visual Reinforcement Learning [93.99377042564919]
本稿では,潜在的利点の探索を妨げることなく,より柔軟な値推定制約を構築することを試みる。
鍵となるアイデアは、オフラインポリシの"テストベッド"として、オンライン形式で簡単に操作可能な、市販のRLシミュレータを活用することだ。
我々は、状態と報酬空間におけるドメイン間の差異を軽減するモデルベースのRLアプローチであるCoWorldを紹介する。
論文 参考訳(メタデータ) (2023-05-24T15:45:35Z) - Pessimistic Model Selection for Offline Deep Reinforcement Learning [56.282483586473816]
深層強化学習(DRL)は多くのアプリケーションにおいてシーケンシャルな意思決定問題を解決する大きな可能性を示している。
主要な障壁の1つは、DRLが学んだ政策の一般化性の低下につながる過度に適合する問題である。
理論的保証のあるオフラインDRLに対する悲観的モデル選択(PMS)手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T06:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。