論文の概要: A Double Q-Learning Approach for Navigation of Aerial Vehicles with
Connectivity Constraint
- arxiv url: http://arxiv.org/abs/2002.10563v1
- Date: Mon, 24 Feb 2020 22:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:30:48.266665
- Title: A Double Q-Learning Approach for Navigation of Aerial Vehicles with
Connectivity Constraint
- Title(参考訳): 接続性に制約のある航空車両のナビゲーションのための二重Qラーニング手法
- Authors: Behzad Khamidehi and Elvino S. Sousa
- Abstract要約: 本稿では,初期位置と最終位置の2つの飛行をミッションとする航空機の軌道最適化問題について検討する。
目的は、航空機の安全運転に必要な接続制約が満たされることを保証することである。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the trajectory optimization problem for an aerial vehicle
with the mission of flying between a pair of given initial and final locations.
The objective is to minimize the travel time of the aerial vehicle ensuring
that the communication connectivity constraint required for the safe operation
of the aerial vehicle is satisfied. We consider two different criteria for the
connectivity constraint of the aerial vehicle which leads to two different
scenarios. In the first scenario, we assume that the maximum continuous time
duration that the aerial vehicle is out of the coverage of the ground base
stations (GBSs) is limited to a given threshold. In the second scenario,
however, we assume that the total time periods that the aerial vehicle is not
covered by the GBSs is restricted. Based on these two constraints, we formulate
two trajectory optimization problems. To solve these non-convex problems, we
use an approach based on the double Q-learning method which is a model-free
reinforcement learning technique and unlike the existing algorithms does not
need perfect knowledge of the environment. Moreover, in contrast to the
well-known Q-learning technique, our double Q-learning algorithm does not
suffer from the over-estimation issue. Simulation results show that although
our algorithm does not require prior information of the environment, it works
well and shows near optimal performance.
- Abstract(参考訳): 本稿では,初期位置と最終位置の2つの飛行をミッションとする航空機の軌道最適化問題について検討する。
目的は、航空車両の安全運転に必要な通信接続制約が満足することを保証するため、航空車両の走行時間を最小化することである。
我々は,2つの異なるシナリオにつながる航空機の接続制約の2つの異なる基準を検討する。
第1のシナリオでは、地上基地局(gbss)のカバー範囲外にある航空機の最大持続時間は所定のしきい値に制限されていると仮定する。
しかし、第2のシナリオでは、航空機がgbssでカバーされていない総期間が制限されていると仮定する。
これら2つの制約に基づき、2つの軌道最適化問題を定式化する。
このような非凸問題の解決には、モデルなし強化学習手法である二重Q-ラーニング法に基づくアプローチを用いるが、既存のアルゴリズムとは異なり、環境の完全な知識は必要ない。
さらに、よく知られたQ-ラーニング手法とは対照的に、我々の二重Q-ラーニングアルゴリズムは過大評価の問題に悩まされない。
シミュレーションの結果,本アルゴリズムは環境の事前情報を必要としないが,最適に近い性能を示すことがわかった。
関連論文リスト
- Integrating Higher-Order Dynamics and Roadway-Compliance into
Constrained ILQR-based Trajectory Planning for Autonomous Vehicles [3.200238632208686]
軌道計画は、自動運転車のグローバルな最適ルートを作成することを目的としている。
既存の自転車キネマティックモデルを用いた実装では、制御可能な軌道は保証できない。
このモデルを、曲率と長手ジャークの1階および2階微分を含む高階項で拡張する。
論文 参考訳(メタデータ) (2023-09-25T22:30:18Z) - Modeling Adaptive Platoon and Reservation Based Autonomous Intersection
Control: A Deep Reinforcement Learning Approach [0.0]
本研究では, 深部強化学習(DRL)技術を利用した適応型小隊型自律交叉制御モデルを提案する。
交通マイクロシミュレータ上での試験では, 走行効率, 燃料保存性能が, 最先端の手法と比較して優れていた。
論文 参考訳(メタデータ) (2022-06-24T08:50:36Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Online V2X Scheduling for Raw-Level Cooperative Perception [21.099819062731463]
視界が単独の知性を制限すると、コネクテッドカーの協調的な認識が救助にやってくる。
本稿では,センサ共有スケジューリングのエネルギー最小化問題を定式化して生レベルの協調認識モデルを提案する。
本稿では,対数的性能損失を伴うオンライン学習に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:16:45Z) - Learning-based Preference Prediction for Constrained Multi-Criteria
Path-Planning [12.457788665461312]
自動地上車両(AGV)の制約された経路計画法はそのような適用例である。
我々は、ニューラルネットワークモデルをトレーニングして、オフラインシミュレーションによって得られた知識を活用し、不確実な基準を予測する。
私たちはこのモデルをパスプランナに統合し、オンラインの問題を解決することができます。
論文 参考訳(メタデータ) (2021-08-02T17:13:45Z) - Do Neural Optimal Transport Solvers Work? A Continuous Wasserstein-2
Benchmark [133.46066694893318]
最適輸送のためのニューラルネットワークに基づく解法の性能を評価する。
既存の解法では,下流タスクでは良好に機能するにもかかわらず,最適な輸送マップを復元できないことがわかった。
論文 参考訳(メタデータ) (2021-06-03T15:59:28Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Learning-'N-Flying: A Learning-based, Decentralized Mission Aware UAS
Collision Avoidance Scheme [0.0]
Learning-'N-Flying (LNF) はマルチUAS衝突回避(CA)フレームワークである。
分散化され、オンザフライで動作し、異なるオペレータが管理する自律uasが複雑なミッションを安全に実行できるようにする。
提案手法はオンライン(数ミリ秒単位の計算時間)で動作可能であり,特定の仮定下では,最悪の場合,1%未満の障害率であることを示す。
論文 参考訳(メタデータ) (2021-01-25T20:38:17Z) - Data Freshness and Energy-Efficient UAV Navigation Optimization: A Deep
Reinforcement Learning Approach [88.45509934702913]
我々は、移動基地局(BS)が配備される複数の無人航空機(UAV)のナビゲーションポリシーを設計する。
我々は、地上BSにおけるデータの鮮度を確保するために、エネルギーや情報年齢(AoI)の制約などの異なる文脈情報を組み込んだ。
提案したトレーニングモデルを適用することで、UAV-BSに対する効果的なリアルタイム軌道ポリシーは、時間とともに観測可能なネットワーク状態をキャプチャする。
論文 参考訳(メタデータ) (2020-02-21T07:29:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。