論文の概要: Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones
- arxiv url: http://arxiv.org/abs/2304.03443v2
- Date: Wed, 21 Feb 2024 02:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 21:17:17.142473
- Title: Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones
- Title(参考訳): ドローンの安全な目標航法のためのマルチプルスーツ回避学習
- Authors: Jiaping Xiao and Mir Feroskhan
- Abstract要約: 本稿では,非同期多段階深部強化学習(AMS-DRL)による対向ニューラルネットワークの学習手法を提案する。
AMS-DRLは、追従者および回避者を二部グラフで非同期に訓練する追従回避ゲームにおいて、敵エージェントを進化させる。
本手法を広範囲なシミュレーションで評価し,航法成功率の高いベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe navigation of drones in the presence of adversarial physical attacks
from multiple pursuers is a challenging task. This paper proposes a novel
approach, asynchronous multi-stage deep reinforcement learning (AMS-DRL), to
train adversarial neural networks that can learn from the actions of multiple
evolved pursuers and adapt quickly to their behavior, enabling the drone to
avoid attacks and reach its target. Specifically, AMS-DRL evolves adversarial
agents in a pursuit-evasion game where the pursuers and the evader are
asynchronously trained in a bipartite graph way during multiple stages. Our
approach guarantees convergence by ensuring Nash equilibrium among agents from
the game-theory analysis. We evaluate our method in extensive simulations and
show that it outperforms baselines with higher navigation success rates. We
also analyze how parameters such as the relative maximum speed affect
navigation performance. Furthermore, we have conducted physical experiments and
validated the effectiveness of the trained policies in real-time flights. A
success rate heatmap is introduced to elucidate how spatial geometry influences
navigation outcomes. Project website:
https://github.com/NTU-ICG/AMS-DRL-for-Pursuit-Evasion.
- Abstract(参考訳): 複数の追跡者からの敵の物理的攻撃がある場合、ドローンの安全なナビゲーションは難しい課題だ。
本稿では,マルチステージ深層学習(AMS-DRL)という新しいアプローチを提案し,複数の進化した追従者の行動から学習し,その行動に迅速に適応し,ドローンが攻撃を回避し,目標に到達できるようにする。
特に、AMS-DRLは、追従回避ゲームにおいて、複数の段階において、追従者および回避者が二部グラフ方式で非同期に訓練される敵エージェントを進化させる。
ゲーム理論解析からエージェント間のナッシュ平衡を保証することにより収束を保証する。
本手法を広範囲のシミュレーションで評価し,高いナビゲーション成功率でベースラインを上回っていることを示す。
また、相対的な最大速度などのパラメータがナビゲーション性能に与える影響を分析する。
さらに, 実時間飛行における訓練方針の有効性を検証し, 実測実験を行った。
空間幾何学が航法結果にどのように影響するかを明らかにするために、成功率のヒートマップが導入された。
プロジェクトウェブサイト: https://github.com/NTU-ICG/AMS-DRL-for-Pursuit-Evasion
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Trial and Error: Exploration-Based Trajectory Optimization for LLM Agents [49.85633804913796]
本稿では,ETOと呼ばれる探索に基づく軌道最適化手法を提案する。
この学習方法はオープンLLMエージェントの性能を向上させるために設計されている。
3つの複雑なタスクに関する実験は、ETOがベースライン性能をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-03-04T21:50:29Z) - A Dual Curriculum Learning Framework for Multi-UAV Pursuit-Evasion in Diverse Environments [15.959963737956848]
本稿では,無人機群が障害物のある制限された環境で高速離着陸機を捕獲するために協力するマルチUAV追跡回避について述べる。
追従回避問題を単純化する既存のアルゴリズムは、しばしば表現力のある協調戦略を欠き、極端なシナリオで回避者を捕まえるのに苦労する。
多様な環境下でのマルチUAV追従回避に対処し,未知のシナリオに対するゼロショット転送能力を実証するデュアルカリキュラム学習フレームワークDualCLを導入する。
論文 参考訳(メタデータ) (2023-12-19T15:39:09Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Ada-NAV: Adaptive Trajectory Length-Based Sample Efficient Policy Learning for Robotic Navigation [72.24964965882783]
軌道長は強化学習アルゴリズムの学習過程において重要な役割を果たす。
本稿では,RLアルゴリズムのトレーニングサンプル効率を向上させるための適応軌道長スキームであるAda-NAVを紹介する。
我々は,Ada-NAVが従来の手法より優れている実世界のロボット実験を実演する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots [0.0]
現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T11:29:59Z) - Collaborative Target Search with a Visual Drone Swarm: An Adaptive
Curriculum Embedded Multistage Reinforcement Learning Approach [0.0]
適応型カリキュラム組込み多段階学習(ACEMSL)という,データ効率の高い深層強化学習(DRL)手法を提案する。
我々は、協調対象探索タスクを、個別の障害物回避、対象探索、エージェント間協調を含むいくつかのサブタスクに分解し、多段階学習でエージェントを段階的に訓練する。
我々は、訓練されたモデルを実際の視覚ドローン群に展開し、微調整なしでCTS操作を行う。
論文 参考訳(メタデータ) (2022-04-26T09:32:22Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - COLREG-Compliant Collision Avoidance for Unmanned Surface Vehicle using
Deep Reinforcement Learning [0.0]
追従と衝突回避は、無人表面船や他の自動運転車にとって、ロボット工学における2つの基本的なガイダンス問題である。
本稿では,連続制御タスクにおける最先端性能を示すDRLアルゴリズムであるPPOの可能性について検討する。
ノルウェー海の入り江であるトロンドハイム・フィヨルド(Trondheim Fjord)の高忠実な標高とAIS追跡データに基づいて、我々は訓練されたエージェントのパフォーマンスを挑戦的でダイナミックな実世界のシナリオで評価した。
論文 参考訳(メタデータ) (2020-06-16T22:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。