論文の概要: Deep Reinforcement Learning Aided Packet-Routing For Aeronautical Ad-Hoc
Networks Formed by Passenger Planes
- arxiv url: http://arxiv.org/abs/2110.15146v1
- Date: Thu, 28 Oct 2021 14:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:48:35.141338
- Title: Deep Reinforcement Learning Aided Packet-Routing For Aeronautical Ad-Hoc
Networks Formed by Passenger Planes
- Title(参考訳): 旅客機による航空アドホックネットワークのための深層強化学習支援パケットルーティング
- Authors: Dong Liu, Jingjing Cui, Jiankang Zhang, Chenyang Yang, Lajos Hanzo
- Abstract要約: エンド・ツー・エンド(E2E)遅延の最小化を目的としたAANETにおけるルーティングのための深層強化学習を起動する。
最深Qネットワーク(DQN)は、転送ノードで観測される最適ルーティング決定と局所的な地理的情報との関係をキャプチャする。
フィードバック機構を組み込んだディープバリューネットワーク(DVN)を用いて,システムのダイナミクスに関する知識をさらに活用する。
- 参考スコア(独自算出の注目度): 99.54065757867554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data packet routing in aeronautical ad-hoc networks (AANETs) is challenging
due to their high-dynamic topology. In this paper, we invoke deep reinforcement
learning for routing in AANETs aiming at minimizing the end-to-end (E2E) delay.
Specifically, a deep Q-network (DQN) is conceived for capturing the
relationship between the optimal routing decision and the local geographic
information observed by the forwarding node. The DQN is trained in an offline
manner based on historical flight data and then stored by each airplane for
assisting their routing decisions during flight. To boost the learning
efficiency and the online adaptability of the proposed DQN-routing, we further
exploit the knowledge concerning the system's dynamics by using a deep value
network (DVN) conceived with a feedback mechanism. Our simulation results show
that both DQN-routing and DVN-routing achieve lower E2E delay than the
benchmark protocol, and DVN-routing performs similarly to the optimal routing
that relies on perfect global information.
- Abstract(参考訳): 航空アドホックネットワーク(AANET)におけるデータパケットルーティングは、その高ダイナミックトポロジのために困難である。
本稿では,終端(E2E)遅延の最小化を目的としたAANETにおけるルーティングのための深層強化学習を実行する。
具体的には、最適なルーティング決定と転送ノードで観測される局所的な地理的情報との関係を捉えるために、ディープQネットワーク(DQN)を考案する。
DQNは、過去の飛行データに基づいてオフラインで訓練され、各航空機が飛行中の経路決定を支援するために格納される。
提案するdqnルーティングの学習効率とオンライン適応性を高めるために,フィードバック機構を具体化したディープバリューネットワーク(dvn)を用いて,システムのダイナミクスに関する知識をさらに活用する。
シミュレーションの結果、DQNルーティングとDVNルーティングの両方がベンチマークプロトコルよりも低E2E遅延を実現し、DVNルーティングは完全なグローバル情報に依存する最適ルーティングと同様に動作することがわかった。
関連論文リスト
- ARDDQN: Attention Recurrent Double Deep Q-Network for UAV Coverage Path Planning and Data Harvesting [3.746548465186206]
無人航空機(UAV)は、データ収集(DH)とカバレッジパス計画(CPP)で人気を博している。
本稿では、Double Deep Q-networks(DDQN)とリカレントニューラルネットワーク(RNN)を統合したARDDQN(Recurrent Double Q Network)を提案する。
圧縮された地球環境マップと、UAVエージェントが大規模環境に効率よくスケールすることを示すローカルマップからなる構造化環境マップを用いている。
論文 参考訳(メタデータ) (2024-05-17T16:53:19Z) - An Intelligent SDWN Routing Algorithm Based on Network Situational
Awareness and Deep Reinforcement Learning [4.085916808788356]
本稿では、ネットワーク状況認識による深層強化学習に基づくインテリジェントルーティングアルゴリズム(DRL-PPONSA)を紹介する。
実験の結果,DRL-PPONSAはネットワークスループット,遅延,パケット損失率,無線ノード距離において従来のルーティング手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-12T14:18:09Z) - Deep Learning Aided Packet Routing in Aeronautical Ad-Hoc Networks
Relying on Real Flight Data: From Single-Objective to Near-Pareto
Multi-Objective Optimization [79.96177511319713]
航空アドホックネットワーク(AANET)のルーティングを支援するために、ディープラーニング(DL)を起動する。
フォワードノードによって観測された局所的な地理的情報を最適な次のホップを決定するために必要な情報にマッピングするために、ディープニューラルネットワーク(DNN)が考案される。
DL支援ルーティングアルゴリズムを多目的シナリオに拡張し,遅延を最小化し,経路容量を最大化し,経路寿命を最大化する。
論文 参考訳(メタデータ) (2021-10-28T14:18:22Z) - Deep Learning Aided Routing for Space-Air-Ground Integrated Networks
Relying on Real Satellite, Flight, and Shipping Data [79.96177511319713]
現在の海上通信は主に単なる送信資源を持つ衛星に依存しており、現代の地上無線ネットワークよりも性能が劣っている。
大陸横断航空輸送の増加に伴い、商業旅客機に依存した航空アドホックネットワークという有望な概念は、空対地およびマルチホップ空対空リンクを介して衛星ベースの海上通信を強化する可能性がある。
低軌道衛星コンステレーション、旅客機、地上基地局、船舶がそれぞれ宇宙、航空、船舶として機能する、ユビキタスな海上通信を支援するための宇宙地上統合ネットワーク(SAGIN)を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:12:10Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - Jamming-Resilient Path Planning for Multiple UAVs via Deep Reinforcement
Learning [1.2330326247154968]
無人航空機(UAV)は無線ネットワークの不可欠な部分であると期待されている。
本論文では,複数のセルコネクテッドUAVの衝突のない経路を探索する。
本稿では,オンライン信号対干渉+雑音比マッピングを用いたオフライン時間差学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-09T16:52:33Z) - UAV Path Planning for Wireless Data Harvesting: A Deep Reinforcement
Learning Approach [18.266087952180733]
本稿では,IoT(Internet of Things)デバイスからのUAV対応データ収集に対するエンドツーエンド強化学習手法を提案する。
自律ドローンは、限られた飛行時間と障害物回避を受ける分散センサーノードからデータを収集する。
提案するネットワークアーキテクチャにより,エージェントが様々なシナリオパラメータの移動決定を行うことができることを示す。
論文 参考訳(メタデータ) (2020-07-01T15:14:16Z) - Constructing Geographic and Long-term Temporal Graph for Traffic
Forecasting [88.5550074808201]
交通予測のための地理・長期時間グラフ畳み込み型ニューラルネットワーク(GLT-GCRNN)を提案する。
本研究では,地理的・長期的時間的パターンを共有する道路間のリッチな相互作用を学習する交通予測のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:50:46Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。