論文の概要: Multi-Agent Deep Reinforcement Learning for Distributed Satellite
Routing
- arxiv url: http://arxiv.org/abs/2402.17666v1
- Date: Tue, 27 Feb 2024 16:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 15:24:55.170530
- Title: Multi-Agent Deep Reinforcement Learning for Distributed Satellite
Routing
- Title(参考訳): 分散衛星ルーティングのためのマルチエージェント深部強化学習
- Authors: Federico Lozano-Cuadra, Beatriz Soret
- Abstract要約: 本稿では、低軌道衛星コンステレーション(LSatC)におけるルーティングのためのマルチエージェント深部強化学習(MA-DRL)手法を提案する。
その結果,MA-DRLはオフラインで最適な経路を効率よく学習し,効率の良い分散ルーティングのためにロードすることがわかった。
- 参考スコア(独自算出の注目度): 7.793857269225969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a Multi-Agent Deep Reinforcement Learning (MA-DRL)
approach for routing in Low Earth Orbit Satellite Constellations (LSatCs). Each
satellite is an independent decision-making agent with a partial knowledge of
the environment, and supported by feedback received from the nearby agents.
Building on our previous work that introduced a Q-routing solution, the
contribution of this paper is to extend it to a deep learning framework able to
quickly adapt to the network and traffic changes, and based on two phases: (1)
An offline exploration learning phase that relies on a global Deep Neural
Network (DNN) to learn the optimal paths at each possible position and
congestion level; (2) An online exploitation phase with local, on-board,
pre-trained DNNs. Results show that MA-DRL efficiently learns optimal routes
offline that are then loaded for an efficient distributed routing online.
- Abstract(参考訳): 本稿では,低軌道衛星コンステレーション(lsatcs)におけるマルチエージェント深層強化学習(ma-drl)手法を提案する。
各衛星は環境を部分的に知る独立した意思決定エージェントであり、近くのエージェントからのフィードバックによって支えられている。
本稿では,ネットワークとトラフィックの変化に迅速に適応可能なディープラーニングフレームワークに拡張し,(1)グローバルディープニューラルネットワーク(dnn)に依存したオフライン探索学習フェーズ,(2)ローカル,オンボード,事前学習されたdnnによるオンラインエクスプロイトフェーズを提案する。
その結果,MA-DRLはオフラインで最適な経路を効率よく学習し,効率の良い分散ルーティングのためにロードすることがわかった。
関連論文リスト
- Intelligent Routing Algorithm over SDN: Reusable Reinforcement Learning Approach [1.799933345199395]
本稿では,再利用可能なRLSRルーティングアルゴリズム RLSR-Routing をSDN上で開発する。
我々のアルゴリズムは従来の手法よりもロードバランシングの点で優れた性能を示している。
また、複数のトラフィック要求のパスを見つける際には、再利用不可能なRLアプローチよりも早く収束する。
論文 参考訳(メタデータ) (2024-09-23T17:15:24Z) - Cooperative Path Planning with Asynchronous Multiagent Reinforcement Learning [4.640948267127441]
複数のソース-決定ペア(MSD)を持つ最短経路問題(SPP)
本稿では,最短経路問題(SPP)について,複数の経路対,すなわちMSD-SPPを用いて検討し,最短経路の平均走行時間を最小化する。
論文 参考訳(メタデータ) (2024-09-01T15:48:14Z) - Continual Deep Reinforcement Learning for Decentralized Satellite Routing [34.67962234401005]
本稿では, 連続的深部強化学習(DRL)に基づく低地球軌道衛星コンステレーションにおける分散ルーティングの完全な解を提案する。
我々は、各衛星が独立した意思決定エージェントとして機能するマルチエージェントアプローチに従う。
我々のソリューションは混雑条件に順応し、ロードの少ない経路を利用する。
論文 参考訳(メタデータ) (2024-05-20T18:12:36Z) - An Efficient Learning-based Solver Comparable to Metaheuristics for the
Capacitated Arc Routing Problem [67.92544792239086]
我々は,高度メタヒューリスティックスとのギャップを著しく狭めるため,NNベースの解法を導入する。
まず,方向対応型注意モデル(DaAM)を提案する。
第2に、教師付き事前学習を伴い、堅牢な初期方針を確立するための教師付き強化学習スキームを設計する。
論文 参考訳(メタデータ) (2024-03-11T02:17:42Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z) - Network Slicing via Transfer Learning aided Distributed Deep
Reinforcement Learning [7.126310378721161]
本稿では, セル間リソース分割のためのマルチエージェント間類似性解析を用いた多エージェント深部強化学習(MADRL)手法を提案する。
提案手法は, 性能, 収束速度, サンプル効率の観点から, 最先端のソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-09T10:55:13Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Deep Reinforcement Learning Aided Packet-Routing For Aeronautical Ad-Hoc
Networks Formed by Passenger Planes [99.54065757867554]
エンド・ツー・エンド(E2E)遅延の最小化を目的としたAANETにおけるルーティングのための深層強化学習を起動する。
最深Qネットワーク(DQN)は、転送ノードで観測される最適ルーティング決定と局所的な地理的情報との関係をキャプチャする。
フィードバック機構を組み込んだディープバリューネットワーク(DVN)を用いて,システムのダイナミクスに関する知識をさらに活用する。
論文 参考訳(メタデータ) (2021-10-28T14:18:56Z) - Deep Learning Aided Packet Routing in Aeronautical Ad-Hoc Networks
Relying on Real Flight Data: From Single-Objective to Near-Pareto
Multi-Objective Optimization [79.96177511319713]
航空アドホックネットワーク(AANET)のルーティングを支援するために、ディープラーニング(DL)を起動する。
フォワードノードによって観測された局所的な地理的情報を最適な次のホップを決定するために必要な情報にマッピングするために、ディープニューラルネットワーク(DNN)が考案される。
DL支援ルーティングアルゴリズムを多目的シナリオに拡張し,遅延を最小化し,経路容量を最大化し,経路寿命を最大化する。
論文 参考訳(メタデータ) (2021-10-28T14:18:22Z) - Deep Learning Aided Routing for Space-Air-Ground Integrated Networks
Relying on Real Satellite, Flight, and Shipping Data [79.96177511319713]
現在の海上通信は主に単なる送信資源を持つ衛星に依存しており、現代の地上無線ネットワークよりも性能が劣っている。
大陸横断航空輸送の増加に伴い、商業旅客機に依存した航空アドホックネットワークという有望な概念は、空対地およびマルチホップ空対空リンクを介して衛星ベースの海上通信を強化する可能性がある。
低軌道衛星コンステレーション、旅客機、地上基地局、船舶がそれぞれ宇宙、航空、船舶として機能する、ユビキタスな海上通信を支援するための宇宙地上統合ネットワーク(SAGIN)を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。