論文の概要: Deep Reinforcement Learning for Distributed and Uncoordinated Cognitive
Radios Resource Allocation
- arxiv url: http://arxiv.org/abs/2205.13944v1
- Date: Fri, 27 May 2022 12:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 21:58:01.309952
- Title: Deep Reinforcement Learning for Distributed and Uncoordinated Cognitive
Radios Resource Allocation
- Title(参考訳): 分散・非協調型認知無線リソースアロケーションのための深層強化学習
- Authors: Ankita Tondwalkar and Andres Kwasinski
- Abstract要約: 本稿では,認知無線ネットワークが提示するマルチエージェント環境のための,深層強化学習に基づく資源配分手法を提案する。
提案したアルゴリズムは、非定常環境における平衡ポリシーに任意に長い時間で収束する。
標準の単エージェント深部強化学習手法を用いることで,非協調的対話型マルチラジオシナリオで使用する場合,収束が得られない可能性が示唆された。
- 参考スコア(独自算出の注目度): 1.218340575383456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel deep reinforcement learning-based resource
allocation technique for the multi-agent environment presented by a cognitive
radio network where the interactions of the agents during learning may lead to
a non-stationary environment. The resource allocation technique presented in
this work is distributed, not requiring coordination with other agents. It is
shown by considering aspects specific to deep reinforcement learning that the
presented algorithm converges in an arbitrarily long time to equilibrium
policies in a non-stationary multi-agent environment that results from the
uncoordinated dynamic interaction between radios through the shared wireless
environment. Simulation results show that the presented technique achieves a
faster learning performance compared to an equivalent table-based Q-learning
algorithm and is able to find the optimal policy in 99% of cases for a
sufficiently long learning time. In addition, simulations show that our DQL
approach requires less than half the number of learning steps to achieve the
same performance as an equivalent table-based implementation. Moreover, it is
shown that the use of a standard single-agent deep reinforcement learning
approach may not achieve convergence when used in an uncoordinated interacting
multi-radio scenario
- Abstract(参考訳): 本稿では,学習中のエージェントの相互作用が非定常環境につながる可能性がある認知型無線ネットワークによって提示されるマルチエージェント環境に対する,新しい深層強化学習に基づくリソース割り当て手法を提案する。
この作業で提示されるリソース割り当て技術は分散しており、他のエージェントとの調整を必要としない。
提案アルゴリズムは, 無線環境間の非協調的動的相互作用から生じる非定常マルチエージェント環境における平衡ポリシに, 任意の時間で収束する, 深層強化学習に特有な側面を考察して示す。
シミュレーションの結果,提案手法は同等のテーブルベースのQ-ラーニングアルゴリズムと比較して学習性能が向上し,99%のケースで十分長い学習時間で最適方針を見出すことができた。
さらにシミュレーションでは、同等のテーブルベースの実装と同じパフォーマンスを達成するために、DQLアプローチでは学習ステップの半数未満を必要としています。
また,非協調対話型マルチラジオシナリオでは,標準の1エージェント深層強化学習手法では収束が得られないことが示されている。
関連論文リスト
- Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Safe Multi-agent Learning via Trapping Regions [89.24858306636816]
我々は、動的システムの定性理論から知られているトラップ領域の概念を適用し、分散学習のための共同戦略空間に安全セットを作成する。
本稿では,既知の学習力学を持つシステムにおいて,候補がトラップ領域を形成することを検証するための二分分割アルゴリズムと,学習力学が未知のシナリオに対するサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:47:52Z) - Addressing the issue of stochastic environments and local
decision-making in multi-objective reinforcement learning [0.0]
多目的強化学習(MORL)は、従来の強化学習(RL)に基づく比較的新しい分野である。
この論文は、価値に基づくMORL Q-learningアルゴリズムが環境の最適ポリシーを学習する頻度に影響を与える要因に焦点を当てている。
論文 参考訳(メタデータ) (2022-11-16T04:56:42Z) - Neuroevolution is a Competitive Alternative to Reinforcement Learning
for Skill Discovery [12.586875201983778]
深層強化学習(Deep Reinforcement Learning, RL)は、複雑な制御タスクを解決するために神経ポリシーをトレーニングするための強力なパラダイムとして登場した。
品質多様性(QD)手法は,スキル発見のための情報理論強化RLの代替手段であることを示す。
論文 参考訳(メタデータ) (2022-10-06T11:06:39Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Minimum-Delay Adaptation in Non-Stationary Reinforcement Learning via
Online High-Confidence Change-Point Detection [7.685002911021767]
非定常環境におけるポリシーを効率的に学習するアルゴリズムを導入する。
これは、リアルタイム、高信頼な変更点検出統計において、潜在的に無限のデータストリームと計算を解析する。
i) このアルゴリズムは, 予期せぬ状況変化が検出されるまでの遅延を最小限に抑え, 迅速な応答を可能にする。
論文 参考訳(メタデータ) (2021-05-20T01:57:52Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning Centric Wireless Resource Allocation for Edge Computing:
Algorithm and Experiment [15.577056429740951]
Edge Intelligenceは、センサー、通信、コンピューティングコンポーネントを統合し、さまざまな機械学習アプリケーションをサポートする、新興ネットワークアーキテクチャである。
既存の方法は2つの重要な事実を無視している: 1) 異なるモデルがトレーニングデータに不均一な要求を持っている; 2) シミュレーション環境と実環境との間にはミスマッチがある。
本稿では,複数のタスクの最悪の学習性能を最大化する学習中心の無線リソース割り当て方式を提案する。
論文 参考訳(メタデータ) (2020-10-29T06:20:40Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。