論文の概要: Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones
- arxiv url: http://arxiv.org/abs/2304.03443v2
- Date: Wed, 21 Feb 2024 02:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 21:17:17.142473
- Title: Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones
- Title(参考訳): ドローンの安全な目標航法のためのマルチプルスーツ回避学習
- Authors: Jiaping Xiao and Mir Feroskhan
- Abstract要約: 本稿では,非同期多段階深部強化学習(AMS-DRL)による対向ニューラルネットワークの学習手法を提案する。
AMS-DRLは、追従者および回避者を二部グラフで非同期に訓練する追従回避ゲームにおいて、敵エージェントを進化させる。
本手法を広範囲なシミュレーションで評価し,航法成功率の高いベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe navigation of drones in the presence of adversarial physical attacks
from multiple pursuers is a challenging task. This paper proposes a novel
approach, asynchronous multi-stage deep reinforcement learning (AMS-DRL), to
train adversarial neural networks that can learn from the actions of multiple
evolved pursuers and adapt quickly to their behavior, enabling the drone to
avoid attacks and reach its target. Specifically, AMS-DRL evolves adversarial
agents in a pursuit-evasion game where the pursuers and the evader are
asynchronously trained in a bipartite graph way during multiple stages. Our
approach guarantees convergence by ensuring Nash equilibrium among agents from
the game-theory analysis. We evaluate our method in extensive simulations and
show that it outperforms baselines with higher navigation success rates. We
also analyze how parameters such as the relative maximum speed affect
navigation performance. Furthermore, we have conducted physical experiments and
validated the effectiveness of the trained policies in real-time flights. A
success rate heatmap is introduced to elucidate how spatial geometry influences
navigation outcomes. Project website:
https://github.com/NTU-ICG/AMS-DRL-for-Pursuit-Evasion.
- Abstract(参考訳): 複数の追跡者からの敵の物理的攻撃がある場合、ドローンの安全なナビゲーションは難しい課題だ。
本稿では,マルチステージ深層学習(AMS-DRL)という新しいアプローチを提案し,複数の進化した追従者の行動から学習し,その行動に迅速に適応し,ドローンが攻撃を回避し,目標に到達できるようにする。
特に、AMS-DRLは、追従回避ゲームにおいて、複数の段階において、追従者および回避者が二部グラフ方式で非同期に訓練される敵エージェントを進化させる。
ゲーム理論解析からエージェント間のナッシュ平衡を保証することにより収束を保証する。
本手法を広範囲のシミュレーションで評価し,高いナビゲーション成功率でベースラインを上回っていることを示す。
また、相対的な最大速度などのパラメータがナビゲーション性能に与える影響を分析する。
さらに, 実時間飛行における訓練方針の有効性を検証し, 実測実験を行った。
空間幾何学が航法結果にどのように影響するかを明らかにするために、成功率のヒートマップが導入された。
プロジェクトウェブサイト: https://github.com/NTU-ICG/AMS-DRL-for-Pursuit-Evasion
関連論文リスト
- Multi-UAV Pursuit-Evasion with Online Planning in Unknown Environments by Deep Reinforcement Learning [16.761470423715338]
マルチUAV追跡回避は、UAV群知能にとって重要な課題である。
本研究では,協調戦略学習における部分的可観測性に対処するために,回避者予測強化ネットワークを導入する。
我々は、2段階の報酬改善を通じて実現可能な政策を導出し、ゼロショット方式で実四重項にポリシーを展開する。
論文 参考訳(メタデータ) (2024-09-24T08:40:04Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Trial and Error: Exploration-Based Trajectory Optimization for LLM Agents [49.85633804913796]
本稿では,ETOと呼ばれる探索に基づく軌道最適化手法を提案する。
この学習方法はオープンLLMエージェントの性能を向上させるために設計されている。
3つの複雑なタスクに関する実験は、ETOがベースライン性能をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-03-04T21:50:29Z) - Short vs. Long-term Coordination of Drones: When Distributed Optimization Meets Deep Reinforcement Learning [0.9208007322096532]
自律型対話型ドローンの群れは、交通監視などスマートシティのアプリケーションに魅力的なセンシング機能を提供する。
本稿では,ドローン群による大規模時空間センシングにおけるタスク割り当て問題に焦点をあてる。
長期DRLと短期集団学習を統合した新しい相乗的最適化手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T12:28:31Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Deep Reinforcement Learning-Based Mapless Crowd Navigation with
Perceived Risk of the Moving Crowd for Mobile Robots [0.0]
現在最先端のクラウドナビゲーションアプローチは、主に深層強化学習(DRL)に基づくものである。
本研究では,観測空間に衝突確率(CP)を組み込んで,移動する群衆の危険度をロボットに知覚する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T11:29:59Z) - Collaborative Target Search with a Visual Drone Swarm: An Adaptive
Curriculum Embedded Multistage Reinforcement Learning Approach [0.0]
適応型カリキュラム組込み多段階学習(ACEMSL)という,データ効率の高い深層強化学習(DRL)手法を提案する。
我々は、協調対象探索タスクを、個別の障害物回避、対象探索、エージェント間協調を含むいくつかのサブタスクに分解し、多段階学習でエージェントを段階的に訓練する。
我々は、訓練されたモデルを実際の視覚ドローン群に展開し、微調整なしでCTS操作を行う。
論文 参考訳(メタデータ) (2022-04-26T09:32:22Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - COLREG-Compliant Collision Avoidance for Unmanned Surface Vehicle using
Deep Reinforcement Learning [0.0]
追従と衝突回避は、無人表面船や他の自動運転車にとって、ロボット工学における2つの基本的なガイダンス問題である。
本稿では,連続制御タスクにおける最先端性能を示すDRLアルゴリズムであるPPOの可能性について検討する。
ノルウェー海の入り江であるトロンドハイム・フィヨルド(Trondheim Fjord)の高忠実な標高とAIS追跡データに基づいて、我々は訓練されたエージェントのパフォーマンスを挑戦的でダイナミックな実世界のシナリオで評価した。
論文 参考訳(メタデータ) (2020-06-16T22:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。