論文の概要: Deep Reinforcement Learning for Wireless Resource Allocation Using
Buffer State Information
- arxiv url: http://arxiv.org/abs/2108.12198v1
- Date: Fri, 27 Aug 2021 09:37:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:00:57.299686
- Title: Deep Reinforcement Learning for Wireless Resource Allocation Using
Buffer State Information
- Title(参考訳): バッファ状態情報を用いた無線リソース割り当てのための深層強化学習
- Authors: Eike-Manuel Bansbach, Victor Eliachevitch, Laurent Schmalen
- Abstract要約: 無線ネットワークにおけるリソース割り当て問題に対処する。
特に、異なる入力キャッピング周波数を評価する。
ベンチマークエージェントは、エージェントよりも明らかに優れています。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the number of user equipments (UEs) with various data rate and latency
requirements increases in wireless networks, the resource allocation problem
for orthogonal frequency-division multiple access (OFDMA) becomes challenging.
In particular, varying requirements lead to a non-convex optimization problem
when maximizing the systems data rate while preserving fairness between UEs. In
this paper, we solve the non-convex optimization problem using deep
reinforcement learning (DRL). We outline, train and evaluate a DRL agent, which
performs the task of media access control scheduling for a downlink OFDMA
scenario. To kickstart training of our agent, we introduce mimicking learning.
For improvement of scheduling performance, full buffer state information at the
base station (e.g. packet age, packet size) is taken into account. Techniques
like input feature compression, packet shuffling and age capping further
improve the performance of the agent. We train and evaluate our agents using
Nokia's wireless suite and evaluate against different benchmark agents. We show
that our agents clearly outperform the benchmark agents.
- Abstract(参考訳): 無線ネットワークにおいて,データレートや遅延要件の異なるユーザ機器(UE)の数が増加するにつれて,直交周波数分割多重アクセス(OFDMA)のリソース割り当ての問題が表面化している。
特に、UE間の公平性を保ちながらシステムデータレートを最大化する際、様々な要件が非凸最適化問題を引き起こす。
本稿では,深部強化学習(DRL)を用いた非凸最適化問題を解く。
ダウンリンクOFDMAシナリオに対してメディアアクセス制御スケジューリングを行うDRLエージェントの概要,訓練,評価を行う。
エージェントのトレーニングを開始するために,模倣学習を導入する。
スケジューリング性能向上のため、基地局におけるフルバッファ状態情報(例えば、)
パケット年齢、パケットサイズ)が考慮される。
入力特徴圧縮、パケットシャッフル、エイジキャップなどの技術はエージェントの性能をさらに向上させる。
我々はNokiaの無線スイートを使用してエージェントをトレーニングし、評価し、異なるベンチマークエージェントに対して評価する。
私たちのエージェントはベンチマークエージェントよりも明らかに優れています。
関連論文リスト
- A Recipe for Unbounded Data Augmentation in Visual Reinforcement Learning [12.889687274108248]
Q-learningアルゴリズムは、視覚的な観察からトレーニングされた時に、不安定さを過度に調整し、訓練する傾向がある。
そこで本研究では,より広範に拡張可能な一般化されたレシピであるSADAを提案する。
提案手法は,RLエージェントのトレーニング安定性と一般化を,多種多様な拡張セットで大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-27T17:58:23Z) - Learning RL-Policies for Joint Beamforming Without Exploration: A Batch
Constrained Off-Policy Approach [1.0080317855851213]
本稿では,ネットワークにおけるパラメータキャンセル最適化の問題点について考察する。
探索と学習のために実世界でアルゴリズムをデプロイすることは、探索せずにデータによって達成できることを示す。
論文 参考訳(メタデータ) (2023-10-12T18:36:36Z) - Wirelessly Powered Federated Learning Networks: Joint Power Transfer,
Data Sensing, Model Training, and Resource Allocation [24.077525032187893]
フェデレートラーニング(FL)は、無線ネットワークで多くの成功を収めている。
FLの実装は、モバイルデバイス(MD)のエネルギー制限と、MDにおけるトレーニングデータの可用性によって妨げられている。
無線送電と持続可能なFLネットワークの統合
論文 参考訳(メタデータ) (2023-08-09T13:38:58Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Resource Management in Wireless Networks via Multi-Agent Deep
Reinforcement Learning [15.091308167639815]
マルチエージェント深部強化学習(RL)を用いた無線ネットワークにおける分散リソース管理と干渉軽減機構を提案する。
ネットワーク内の各送信機に深部RLエージェントを装備し、それに関連するユーザからの遅延観測を受信するとともに、近隣のエージェントと観測を交換する。
提案フレームワークは,エージェントが他のエージェントの同時決定を知らずに,同時かつ分散的に意思決定を行うことを可能にする。
論文 参考訳(メタデータ) (2020-02-14T19:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。