論文の概要: Multi-agent Attention Actor-Critic Algorithm for Load Balancing in
Cellular Networks
- arxiv url: http://arxiv.org/abs/2303.08003v1
- Date: Tue, 14 Mar 2023 15:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:25:25.640413
- Title: Multi-agent Attention Actor-Critic Algorithm for Load Balancing in
Cellular Networks
- Title(参考訳): セルネットワークにおける負荷分散のためのマルチエージェントアテンションアクタクリティカルアルゴリズム
- Authors: Jikun Kang, Di Wu, Ju Wang, Ekram Hossain, Xue Liu, Gregory Dudek
- Abstract要約: セルラーネットワークでは、ユーザ機器(UE)が基地局から別の基地局へハンドオフし、BS間の負荷分散問題を引き起こした。
本稿では,負荷分散問題をマルコフゲームとして定式化し,ロバストマルチエージェント・アテンション・アクタ・クリティカル(Robust-MA3C)アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 33.72503214603868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In cellular networks, User Equipment (UE) handoff from one Base Station (BS)
to another, giving rise to the load balancing problem among the BSs. To address
this problem, BSs can work collaboratively to deliver a smooth migration (or
handoff) and satisfy the UEs' service requirements. This paper formulates the
load balancing problem as a Markov game and proposes a Robust Multi-agent
Attention Actor-Critic (Robust-MA3C) algorithm that can facilitate
collaboration among the BSs (i.e., agents). In particular, to solve the Markov
game and find a Nash equilibrium policy, we embrace the idea of adopting a
nature agent to model the system uncertainty. Moreover, we utilize the
self-attention mechanism, which encourages high-performance BSs to assist
low-performance BSs. In addition, we consider two types of schemes, which can
facilitate load balancing for both active UEs and idle UEs. We carry out
extensive evaluations by simulations, and simulation results illustrate that,
compared to the state-of-the-art MARL methods, Robust-\ours~scheme can improve
the overall performance by up to 45%.
- Abstract(参考訳): セルラーネットワークでは、ユーザ機器(UE)が基地局(BS)から別の基地局(BS)へハンドオフし、BS間の負荷分散問題を引き起こす。
この問題に対処するため、BSは協調して、スムーズなマイグレーション(あるいはハンドオフ)を提供し、UEのサービス要件を満たすことができる。
本稿では,負荷分散問題をマルコフゲームとして定式化し,bss(すなわちエージェント)間の協調を容易にするロバスト-ma3cアルゴリズムを提案する。
特に,マルコフゲームを解き,ナッシュ均衡政策を見出すために,システムの不確かさをモデル化するために自然エージェントを採用するという考え方を取り入れた。
さらに,低性能BSを支援するために,高性能BSの自己認識機構を利用する。
さらに,アクティブなUEとアイドルなUEのロードバランシングを容易にする2種類のスキームについても検討する。
シミュレーションによる広範な評価を行い,最先端のmarl法と比較して,ロバスト・\ours~schemeは全体の性能を最大45%向上できることを示した。
関連論文リスト
- Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Learning Distributed and Fair Policies for Network Load Balancing as
Markov Potentia Game [4.892398873024191]
本稿では、複数のロードバランサ(LB)を配置するデータセンター(DC)におけるネットワーク負荷分散問題について検討する。
この問題の課題は、異種処理アーキテクチャと動的環境から成り立っている。
マルチエージェント負荷分散問題をマルコフポテンシャルゲームとして定式化し、そのポテンシャル関数としてのワークロード分布の公平さを慎重に適切に設計する。
ゲームのナッシュ平衡を近似するために,完全分散MARLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-03T08:29:02Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Multi-Agent Reinforcement Learning for Network Load Balancing in Data
Center [4.141301293112916]
本稿では,強化学習における実世界の課題であるネットワーク負荷分散問題を提案する。
協調的ネットワーク負荷分散タスクはDec-POMDP問題として定式化され、MARL法を自然に誘導する。
学習に基づく手法を適用するための現実的ギャップを埋めるために、エミュレーションシステム上で、すべての手法を直接訓練し評価する。
論文 参考訳(メタデータ) (2022-01-27T18:47:59Z) - Towards Intelligent Load Balancing in Data Centers [0.5505634045241288]
本稿では,機械学習とネットワークシステムのギャップを埋めるため,Aquariusを提案する。
オフラインデータ分析とオンラインモデル展開の両方を現実的なシステムで実行する能力を示している。
論文 参考訳(メタデータ) (2021-10-27T12:47:30Z) - Softmax with Regularization: Better Value Estimation in Multi-Agent
Reinforcement Learning [72.28520951105207]
q$-learningの過大評価は、シングルエージェント強化学習で広く研究されている重要な問題である。
ベースラインから逸脱する大きな関節動作値をペナライズする,新たな正規化ベースの更新方式を提案する。
本手法は,StarCraft IIマイクロマネジメントの課題に対して,一貫した性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-22T14:18:39Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Value Variance Minimization for Learning Approximate Equilibrium in
Aggregation Systems [8.140037969280716]
集約システムにおける近似平衡解(ウィンウィン)の学習問題を考察する。
本稿では,集約システムにおける近似平衡解(ウィンウィン)の学習の問題について考察する。
論文 参考訳(メタデータ) (2020-03-16T10:02:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。