論文の概要: Dynamic Multichannel Access via Multi-agent Reinforcement Learning:
Throughput and Fairness Guarantees
- arxiv url: http://arxiv.org/abs/2105.04077v1
- Date: Mon, 10 May 2021 02:32:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:30:59.512433
- Title: Dynamic Multichannel Access via Multi-agent Reinforcement Learning:
Throughput and Fairness Guarantees
- Title(参考訳): マルチエージェント強化学習による動的マルチチャネルアクセス:スループットと公正保証
- Authors: Muhammad Sohaib, Jongjin Jeong, and Sang-Woon Jeon
- Abstract要約: マルチエージェント強化学習(RL)に基づく分散マルチチャネルアクセスプロトコルを提案する。
チャネルアクセス確率を各時間スロットで調整する従来の手法とは異なり、提案したRLアルゴリズムは、連続する時間スロットに対する一連のチャネルアクセスポリシーを決定論的に選択する。
我々は,現実的な交通環境において広範なシミュレーションを行い,提案したオンライン学習がスループットと公平性の両方を改善することを示す。
- 参考スコア(独自算出の注目度): 9.615742794292943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a multichannel random access system in which each user accesses a
single channel at each time slot to communicate with an access point (AP).
Users arrive to the system at random and be activated for a certain period of
time slots and then disappear from the system. Under such dynamic network
environment, we propose a distributed multichannel access protocol based on
multi-agent reinforcement learning (RL) to improve both throughput and fairness
between active users. Unlike the previous approaches adjusting channel access
probabilities at each time slot, the proposed RL algorithm deterministically
selects a set of channel access policies for several consecutive time slots. To
effectively reduce the complexity of the proposed RL algorithm, we adopt a
branching dueling Q-network architecture and propose an efficient training
methodology for producing proper Q-values over time-varying user sets. We
perform extensive simulations on realistic traffic environments and demonstrate
that the proposed online learning improves both throughput and fairness
compared to the conventional RL approaches and centralized scheduling policies.
- Abstract(参考訳): 各ユーザがアクセスポイント(ap)と通信するために各タイムスロットで1つのチャネルにアクセスするマルチチャネルランダムアクセスシステムについて検討する。
ユーザはランダムにシステムに到着し、一定期間のタイムスロットで起動し、その後システムから消えます。
このような動的ネットワーク環境下では,マルチエージェント強化学習(RL)に基づく分散マルチチャネルアクセスプロトコルを提案し,アクティブユーザ間のスループットと公平性を改善する。
チャネルアクセス確率を各時間スロットで調整する従来の手法とは異なり、提案したRLアルゴリズムは、連続する時間スロットに対する一連のチャネルアクセスポリシーを決定的に選択する。
提案するrlアルゴリズムの複雑さを効果的に低減するために,分岐因果qネットワークアーキテクチャを採用し,時間変動ユーザ集合上で適切なq値を生成するための効率的なトレーニング手法を提案する。
提案手法は,実際の交通環境を広範囲にシミュレーションし,従来のrl手法や集中型スケジューリング手法と比較して,スループットと公平性が向上することを示す。
関連論文リスト
- Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - Sparsity-Aware Intelligent Massive Random Access Control in Open RAN: A
Reinforcement Learning Based Approach [61.74489383629319]
新たなOpen Radio Access Network(O-RAN)におけるデバイスの大量ランダムアクセスは、アクセス制御と管理に大きな課題をもたらします。
閉ループアクセス制御の強化学習(RL)支援方式を提案する。
深部RL支援SAUDは、連続的かつ高次元の状態と行動空間を持つ複雑な環境を解決するために提案されている。
論文 参考訳(メタデータ) (2023-03-05T12:25:49Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Actor-Critic Scheduling for Path-Aware Air-to-Ground Multipath
Multimedia Delivery [5.01187288554981]
Actor-Critic (AC) RLアルゴリズムに基づくマルチパスシステムにおけるリアルタイムマルチメディア配信のための新しいスケジューラを提案する。
RLエージェントとして機能するスケジューラは、経路選択、経路レート割り当て、フロー保護のための冗長性推定のための最適ポリシーをリアルタイムで学習する。
論文 参考訳(メタデータ) (2022-04-28T08:28:25Z) - AI-aided Traffic Control Scheme for M2M Communications in the Internet
of Vehicles [61.21359293642559]
交通のダイナミクスと異なるIoVアプリケーションの異種要求は、既存のほとんどの研究では考慮されていない。
本稿では,ハイブリッド交通制御方式とPPO法を併用して検討する。
論文 参考訳(メタデータ) (2022-03-05T10:54:05Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Cooperative Multi-Agent Reinforcement Learning Based Distributed Dynamic
Spectrum Access in Cognitive Radio Networks [46.723006378363785]
ダイナミックスペクトルアクセス(DSA)は、非効率的なスペクトル利用の問題を改善するための、有望なパラダイムである。
本稿では,一般的な認知無線ネットワークにおけるマルチユーザに対する分散DSA問題について検討する。
我々は、各認知ユーザに対する状態の部分的観測可能性に対処するために、DRQN(Deep Recurrent Q-network)を用いている。
論文 参考訳(メタデータ) (2021-06-17T06:52:21Z) - A Reinforcement Learning Approach to Age of Information in Multi-User
Networks with HARQ [1.5469452301122177]
ソースノードから複数のユーザへのタイムセンシティブな情報の送信を,エラーが発生しやすい通信チャネル上でスケジューリングする。
リソースの長期平均制約はソースに課され、送信の平均数を制限します。
論文 参考訳(メタデータ) (2021-02-19T07:30:44Z) - Multi-Agent Reinforcement Learning for Channel Assignment and Power
Allocation in Platoon-Based C-V2X Systems [15.511438222357489]
我々は,C-V2Xシステムにおける結合チャネル割り当てと電力配分の問題点を考察する。
提案する分散リソース割当アルゴリズムは,よく知られた網羅的探索アルゴリズムと比較して,近い性能を提供する。
論文 参考訳(メタデータ) (2020-11-09T16:55:09Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。