論文の概要: MACC: Cross-Layer Multi-Agent Congestion Control with Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2206.01972v1
- Date: Sat, 4 Jun 2022 12:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:58:19.156609
- Title: MACC: Cross-Layer Multi-Agent Congestion Control with Deep Reinforcement
Learning
- Title(参考訳): MACC: 深層強化学習によるクロス層マルチエージェント混雑制御
- Authors: Jianing Bai, Tianhao Zhang, Guangming Xie
- Abstract要約: Congestion Control (CC)は、ネットワーク容量を効率的に活用するためのコアネットワークタスクである。
本稿では,マルチエージェント強化学習に基づく階層間混雑制御アルゴリズムの性能について検討する。
- 参考スコア(独自算出の注目度): 14.29757990259669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Congestion Control (CC), as the core networking task to efficiently utilize
network capacity, received great attention and widely used in various Internet
communication applications such as 5G, Internet-of-Things, UAN, and more.
Various CC algorithms have been proposed both on network and transport layers
such as Active Queue Management (AQM) algorithm and Transmission Control
Protocol (TCP) congestion control mechanism. But it is hard to model dynamic
AQM/TCP system and cooperate two algorithms to obtain excellent performance
under different communication scenarios. In this paper, we explore the
performance of multi-agent reinforcement learning-based cross-layer congestion
control algorithms and present cooperation performance of two agents, known as
MACC (Multi-agent Congestion Control). We implement MACC in NS3. The simulation
results show that our scheme outperforms other congestion control combination
in terms of throughput and delay, etc. Not only does it proves that networking
protocols based on multi-agent deep reinforcement learning is efficient for
communication managing, but also verifies that networking area can be used as
new playground for machine learning algorithms.
- Abstract(参考訳): ネットワーク容量を効率的に活用するコアネットワークタスクである渋滞制御(CC)は、5G、Internet-of-Things、UANなど様々なインターネット通信アプリケーションで広く利用されている。
AQM(Active Queue Management)アルゴリズムやTCP(Transmission Control Protocol)の混雑制御機構など,ネットワーク層とトランスポート層の両方でCCアルゴリズムが提案されている。
しかし、動的AQM/TCPシステムをモデル化し、異なる通信シナリオ下で優れた性能を得るために2つのアルゴリズムを協調することは困難である。
本稿では,マルチエージェント強化学習に基づくクロス層渋滞制御アルゴリズムの性能と,MACC(Multi-agent Congestion Control)と呼ばれる2つのエージェントの協調性能について検討する。
我々はns3にmaccを実装します。
シミュレーションの結果,提案手法は,スループットや遅延などの観点から,他の混雑制御の組み合わせよりも優れていることがわかった。
マルチエージェント深層学習に基づくネットワークプロトコルが通信管理に効率的であることを証明するだけでなく、ニューラルネットワーク領域が機械学習アルゴリズムの新しい遊び場として利用できることを検証する。
関連論文リスト
- A Survey on Congestion Control and Scheduling for Multipath TCP: Machine
Learning vs Classical Approaches [11.940300796370703]
本稿では,データ駆動型(古典的)とデータ駆動型(機械学習)の2つのアプローチに基づく問題解決手法についてレビューする。
本稿では,これら2つのアプローチを比較し,その長所と短所を強調し,コミュニケーションのための機械学習のエキサイティングな領域における将来の研究者の動機付けを目的とした。
論文 参考訳(メタデータ) (2023-09-17T20:33:06Z) - Learning to Sail Dynamic Networks: The MARLIN Reinforcement Learning
Framework for Congestion Control in Tactical Environments [53.08686495706487]
本稿では, 正確な並列化可能なエミュレーション環境を利用して, 戦術ネットワークの環境を再現するRLフレームワークを提案する。
衛星通信(SATCOM)とUHFワイドバンド(UHF)の無線リンク間のボトルネックリンク遷移を再現した条件下で、MARLINエージェントを訓練することにより、我々のRL学習フレームワークを評価する。
論文 参考訳(メタデータ) (2023-06-27T16:15:15Z) - Multi-Agent Reinforcement Learning for Network Routing in Integrated
Access Backhaul Networks [0.0]
IABネットワークの遅延を最小化しながらパケット到着率を最大化することを目的としている。
この問題を解決するため、我々はマルチエージェントで部分的に観察されたマルコフ決定プロセス(POMD)を開発した。
A2Cは他の強化学習アルゴリズムよりも優れており、ネットワーク効率が向上し、利己的エージェントの挙動が低下することを示した。
論文 参考訳(メタデータ) (2023-05-12T13:03:26Z) - Quantum Multi-Agent Actor-Critic Networks for Cooperative Mobile Access
in Multi-UAV Systems [12.850810725666465]
本稿では,ロバストなモバイルアクセスシステムを構築するために,量子マルチエージェントアクタクリティカルネットワーク(QMACN)という新しいアルゴリズムを提案する。
量子コンピューティング(QC)の原理は、関連するUAVのトレーニングプロセスと推論能力を高めるために、我々の研究で採用されている。
論文 参考訳(メタデータ) (2023-02-09T05:31:57Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Semantic-Aware Collaborative Deep Reinforcement Learning Over Wireless
Cellular Networks [82.02891936174221]
複数のエージェントが無線ネットワーク上で協調できるコラボレーティブディープ強化学習(CDRL)アルゴリズムは有望なアプローチである。
本稿では,リソース制約のある無線セルネットワーク上で,意味的にリンクされたDRLタスクを持つ未学習エージェントのグループを効率的に協調させる,新しい意味認識型CDRL手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:24:47Z) - Network-wide traffic signal control optimization using a multi-agent
deep reinforcement learning [20.385286762476436]
非効率な交通制御は、交通渋滞やエネルギー廃棄物などの多くの問題を引き起こす可能性がある。
本論文では,交通信号間の協調性を高めることで最適制御を実現するマルチエージェント強化学習手法であるKS-DDPGを提案する。
論文 参考訳(メタデータ) (2021-04-20T12:53:08Z) - Multi-Agent Reinforcement Learning in NOMA-aided UAV Networks for
Cellular Offloading [59.32570888309133]
複数の無人航空機(UAV)によるセルローディングのための新しい枠組みの提案
非直交多重アクセス(NOMA)技術は、無線ネットワークのスペクトル効率をさらに向上するために、各UAVに採用されている。
相互深いQ-network (MDQN) アルゴリズムは,UAVの最適3次元軌道と電力配分を共同で決定するために提案される。
論文 参考訳(メタデータ) (2020-10-18T20:22:05Z) - Online Multi-agent Reinforcement Learning for Decentralized
Inverter-based Volt-VAR Control [3.260913246106564]
分散Volt/Var制御(VVC)法はアクティブ分散ネットワーク(ADN)において広く研究されている。
本稿では,VVCのためのオンラインマルチエージェント強化学習と分散制御フレームワーク(OLDC)を提案する。
論文 参考訳(メタデータ) (2020-06-23T09:03:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。