論文の概要: Agile Interception of a Flying Target using Competitive Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2603.16279v1
- Date: Tue, 17 Mar 2026 09:11:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.189986
- Title: Agile Interception of a Flying Target using Competitive Reinforcement Learning
- Title(参考訳): 競争力強化学習を用いた飛行目標のアジャイル・インターセプション
- Authors: Timothée Gavin, Simon Lacroix, Murat Bronz,
- Abstract要約: この記事では、捕獲網を積んだ別のアジャイルドローンによって、アジャイルドローンを迎撃するソリューションを提示します。
我々は、このインターセプションを競合強化学習問題として定式化し、インターセプターとターゲットドローンを個別のポリシーで制御する。
JAXで実装された現実的な四重項力学モデルと低レベル制御アーキテクチャを統合した高忠実度シミュレーション環境を提案する。
- 参考スコア(独自算出の注目度): 2.982218441172364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article presents a solution to intercept an agile drone by another agile drone carrying a catching net. We formulate the interception as a Competitive Reinforcement Learning problem, where the interceptor and the target drone are controlled by separate policies trained with Proximal Policy Optimization (PPO). We introduce a high-fidelity simulation environment that integrates a realistic quadrotor dynamics model and a low-level control architecture implemented in JAX, which allows for fast parallelized execution on GPUs. We train the agents using low-level control, collective thrust and body rates, to achieve agile flights both for the interceptor and the target. We compare the performance of the trained policies in terms of catch rate, time to catch, and crash rate, against common heuristic baselines and show that our solution outperforms these baselines for interception of agile targets. Finally, we demonstrate the performance of the trained policies in a scaled real-world scenario using agile drones inside an indoor flight arena.
- Abstract(参考訳): この記事では、捕獲網を積んだ別のアジャイルドローンによって、アジャイルドローンを迎撃するソリューションを提示します。
我々は,このインターセプションを競合強化学習問題として定式化し,インターセプタとターゲットドローンをPPO(Proximal Policy Optimization)で訓練した個別のポリシーで制御する。
本稿では,現実的な四重項動的モデルとJAXで実装された低レベル制御アーキテクチャを統合し,GPU上で高速な並列化実行を可能にする高忠実度シミュレーション環境を提案する。
私たちは、インターセプターとターゲットの両方でアジャイル飛行を達成するために、低レベル制御、集団推力、ボディレートを使用してエージェントを訓練します。
私たちは、トレーニングされたポリシーのパフォーマンスを、一般的なヒューリスティックなベースラインに対してキャッチレート、キャッチタイム、クラッシュレートで比較し、このソリューションがアジャイルターゲットのインターセプションにおいてこれらのベースラインを上回っていることを示す。
最後に、屋内飛行アリーナ内でアジャイルドローンを使用して、トレーニング済みポリシのパフォーマンスを実世界の大規模シナリオで実証する。
関連論文リスト
- FlyTrap: Physical Distance-Pulling Attack Towards Camera-based Autonomous Target Tracking Systems [25.870424901890292]
距離追従攻撃(DPA)という新たな攻撃法を提案する。
FlyTrapは、敵傘をデプロイ可能でドメイン固有の攻撃ベクトルとして利用する、新しい物理世界の攻撃フレームワークである。
我々の評価には、新しいデータセット、メトリクス、現実世界のホワイトボックスやDJIやHoverAirを含む商用ATTドローンのクローズドループ実験が含まれています。
論文 参考訳(メタデータ) (2025-09-24T17:59:54Z) - Reinforcement Learning for Decision-Level Interception Prioritization in Drone Swarm Defense [51.736723807086385]
本稿では,この課題に対処する上で,強化学習の実践的メリットを示すケーススタディを提案する。
本研究では,現実的な運用制約を捉えた高忠実度シミュレーション環境を提案する。
エージェントは最適なインターセプション優先順位付けのために複数のエフェクターを調整することを学ぶ。
我々は、何百ものシミュレートされた攻撃シナリオにおいて、手作りルールベースのベースラインに対する学習ポリシーを評価する。
論文 参考訳(メタデータ) (2025-08-01T13:55:39Z) - Learned Controllers for Agile Quadrotors in Pursuit-Evasion Games [42.74003740156243]
我々は,アジャイル1v1クアッドロータ追従回避の問題に対処する。
これらの問題に対処するために,非同期多段階人口ベース (AMSPB) アルゴリズムを提案する。
このフレームワークでは、ベロシティコマンドまたはボディーレートを集合推力で出力するニューラルネットワークコントローラをトレーニングします。
論文 参考訳(メタデータ) (2025-06-03T13:19:23Z) - Cooperative Search and Track of Rogue Drones using Multiagent Reinforcement Learning [8.775925011558995]
本研究は、機密性の高いインフラ施設をターゲットにしたローグドローンを迎撃する問題を考察する。
ローグドローンを確実に検出・追跡・中和できる総合システムを提案する。
論文 参考訳(メタデータ) (2025-01-07T16:22:51Z) - Open-World Drone Active Tracking with Goal-Centered Rewards [62.21394499788672]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATは,世界初となるエア・ツー・グラウンド・トラッキング・ベンチマークである。
また,複雑なシナリオにおけるドローン追跡目標の性能向上を目的としたGC-VATを提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones [0.0]
本稿では,非同期多段階深部強化学習(AMS-DRL)による対向ニューラルネットワークの学習手法を提案する。
AMS-DRLは、追従者および回避者を二部グラフで非同期に訓練する追従回避ゲームにおいて、敵エージェントを進化させる。
本手法を広範囲なシミュレーションで評価し,航法成功率の高いベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-07T01:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。