論文の概要: Intercepting Unauthorized Aerial Robots in Controlled Airspace Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2407.06909v1
- Date: Tue, 9 Jul 2024 14:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 17:47:35.246659
- Title: Intercepting Unauthorized Aerial Robots in Controlled Airspace Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた制御空域における無許可空中ロボットの介在
- Authors: Francisco Giral, Ignacio Gómez, Soledad Le Clainche,
- Abstract要約: 制御空域における無人航空機(UAV)の増殖は重大なリスクをもたらす。
この作業は、強化学習(RL)を用いることで、そのような脅威を管理することのできる堅牢で適応的なシステムの必要性に対処する。
固定翼UAV追跡エージェントの訓練にRLを用いる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.519319150166215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of unmanned aerial vehicles (UAVs) in controlled airspace presents significant risks, including potential collisions, disruptions to air traffic, and security threats. Ensuring the safe and efficient operation of airspace, particularly in urban environments and near critical infrastructure, necessitates effective methods to intercept unauthorized or non-cooperative UAVs. This work addresses the critical need for robust, adaptive systems capable of managing such threats through the use of Reinforcement Learning (RL). We present a novel approach utilizing RL to train fixed-wing UAV pursuer agents for intercepting dynamic evader targets. Our methodology explores both model-based and model-free RL algorithms, specifically DreamerV3, Truncated Quantile Critics (TQC), and Soft Actor-Critic (SAC). The training and evaluation of these algorithms were conducted under diverse scenarios, including unseen evasion strategies and environmental perturbations. Our approach leverages high-fidelity flight dynamics simulations to create realistic training environments. This research underscores the importance of developing intelligent, adaptive control systems for UAV interception, significantly contributing to the advancement of secure and efficient airspace management. It demonstrates the potential of RL to train systems capable of autonomously achieving these critical tasks.
- Abstract(参考訳): 制御空域における無人航空機(UAV)の増殖は、潜在的な衝突、航空交通の破壊、セキュリティ上の脅威などの重大なリスクをもたらす。
空域の安全かつ効率的な運用を確保するには、特に都市環境や重要なインフラに近い場所で、無許可または非協力のUAVを迎撃する効果的な方法が必要である。
この研究は、強化学習(Reinforcement Learning, RL)を用いることで、このような脅威を管理することのできる堅牢で適応的なシステムに対する重要なニーズに対処する。
固定翼UAV追跡エージェントの訓練にRLを用いる新しい手法を提案する。
本稿では,モデルベースとモデルフリーのRLアルゴリズム,特にDreamerV3,Trncated Quantile Critics (TQC),Soft Actor-Critic (SAC)について検討する。
これらのアルゴリズムの訓練と評価は、目に見えない回避戦略や環境摂動など様々なシナリオで行われた。
提案手法は,高忠実度飛行力学シミュレーションを利用して現実的な訓練環境を構築する。
この研究は、UAVインターセプションのためのインテリジェントで適応的な制御システムの開発の重要性を強調し、安全で効率的な空域管理の進歩に大きく貢献する。
これは、これらの重要なタスクを自律的に達成できるシステムを訓練するRLの可能性を示す。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Deep Learning Based Situation Awareness for Multiple Missiles Evasion [1.7819574476785418]
本研究では,BVR(Beyond Visual Range)空戦シナリオにおけるUAV運用者を支援するための意思決定支援ツールを提案する。
提案手法は,Deep Neural Networks (DNN) を用いて高忠実度シミュレーションから学習し,演算子に異なる戦略の集合に対する結果推定値を与える。
提案システムは,複数のミサイルを運用し,選択肢のファミリーを評価し,最もリスクの低い行動手順を推奨できることを示す。
論文 参考訳(メタデータ) (2024-02-07T14:21:21Z) - Toward collision-free trajectory for autonomous and pilot-controlled
unmanned aerial vehicles [1.018017727755629]
本研究は、高度衝突管理手法の開発において、PilotAware Ltdが入手した電子情報(EC)をより活用するものである。
DACM手法の利点は、空中衝突を避けるための広範囲なシミュレーションと実世界のフィールドテストによって実証されてきた。
論文 参考訳(メタデータ) (2023-09-18T18:24:31Z) - Self-Inspection Method of Unmanned Aerial Vehicles in Power Plants Using
Deep Q-Network Reinforcement Learning [0.0]
本研究は,UAV自律ナビゲーションとDQN強化学習を取り入れた発電所検査システムを提案する。
訓練されたモデルは、UAVが困難な環境で単独で移動できるようにすることで、検査戦略が実際に適用される可能性が高い。
論文 参考訳(メタデータ) (2023-03-16T00:58:50Z) - Reinforcement Learning-Based Air Traffic Deconfliction [7.782300855058585]
本研究は,2機の水平分離を自動化することに焦点を当て,障害物回避問題を2次元サロゲート最適化課題として提示する。
強化学習(RL)を用いて、回避ポリシーを最適化し、ダイナミクス、インタラクション、意思決定をモデル化する。
提案システムは,安全要件を満たす高速かつ達成可能な回避軌道を生成する。
論文 参考訳(メタデータ) (2023-01-05T00:37:20Z) - Obstacle Avoidance for UAS in Continuous Action Space Using Deep
Reinforcement Learning [9.891207216312937]
小型無人航空機の障害物回避は将来の都市空輸の安全に不可欠である。
本稿では, PPO(Proximal Policy Optimization)に基づく深層強化学習アルゴリズムを提案する。
その結果,提案モデルが正確かつ堅牢なガイダンスを提供し,99%以上の成功率で競合を解消できることが示唆された。
論文 参考訳(メタデータ) (2021-11-13T04:44:53Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。