論文の概要: ARMOR: Robust Reinforcement Learning-based Control for UAVs under Physical Attacks
- arxiv url: http://arxiv.org/abs/2506.22423v1
- Date: Fri, 27 Jun 2025 17:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.315048
- Title: ARMOR: Robust Reinforcement Learning-based Control for UAVs under Physical Attacks
- Title(参考訳): ARMOR: 物理的攻撃によるUAVのロバスト強化学習に基づく制御
- Authors: Pritam Dash, Ethan Chan, Nathan P. Lawrence, Karthik Pattabiraman,
- Abstract要約: 無人航空機(UAV)は、知覚、ナビゲーション、制御のための搭載センサーに依存している。
ArmORは攻撃耐性、モデルレス強化学習コントローラである。
ArmORは2段階のトレーニングフレームワークを通じて、UAVの物理的状態の堅牢な遅延表現を学習する。
- 参考スコア(独自算出の注目度): 6.362264393795084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicles (UAVs) depend on onboard sensors for perception, navigation, and control. However, these sensors are susceptible to physical attacks, such as GPS spoofing, that can corrupt state estimates and lead to unsafe behavior. While reinforcement learning (RL) offers adaptive control capabilities, existing safe RL methods are ineffective against such attacks. We present ARMOR (Adaptive Robust Manipulation-Optimized State Representations), an attack-resilient, model-free RL controller that enables robust UAV operation under adversarial sensor manipulation. Instead of relying on raw sensor observations, ARMOR learns a robust latent representation of the UAV's physical state via a two-stage training framework. In the first stage, a teacher encoder, trained with privileged attack information, generates attack-aware latent states for RL policy training. In the second stage, a student encoder is trained via supervised learning to approximate the teacher's latent states using only historical sensor data, enabling real-world deployment without privileged information. Our experiments show that ARMOR outperforms conventional methods, ensuring UAV safety. Additionally, ARMOR improves generalization to unseen attacks and reduces training cost by eliminating the need for iterative adversarial training.
- Abstract(参考訳): 無人航空機(UAV)は、知覚、ナビゲーション、制御のための搭載センサーに依存している。
しかし、これらのセンサーは、GPSスプーフィングのような物理的攻撃の影響を受けやすいため、状態推定を破損させ、安全でない行動を引き起こす可能性がある。
強化学習(RL)は適応制御機能を提供するが、既存の安全なRL手法はそのような攻撃に対して効果がない。
本稿では、敵センサ操作下での堅牢なUAV操作を可能にする攻撃耐性・モデルフリーなRLコントローラARMOR(Adaptive Robust Manipulation-Optimized State Representations)を提案する。
ARMORは、生のセンサー観測に頼る代わりに、2段階のトレーニングフレームワークを通じて、UAVの物理的状態の堅牢な潜在性表現を学習する。
第1段階では、特権攻撃情報で訓練された教師エンコーダが、RLポリシートレーニングのための攻撃対応潜伏状態を生成する。
第2段階では、教師付き学習を通じて生徒エンコーダを訓練し、歴史センサデータのみを用いて教師の潜伏状態を近似し、特権情報なしで実世界の展開を可能にする。
実験の結果,ARMORは従来手法より優れ,UAVの安全性が保証された。
さらに、ARMORは、非表示攻撃への一般化を改善し、反復的な敵の訓練を不要にすることで、トレーニングコストを削減している。
関連論文リスト
- Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - Sensor Deprivation Attacks for Stealthy UAV Manipulation [51.9034385791934]
無人航空機は最先端の制御アルゴリズムを用いて自律的にタスクを実行する。
本稿では,マルチパートを提案する。
センサー分離攻撃 (Sensor Deprivation Attacks, SDA) - 極秘に影響を及ぼす攻撃。
センサーのリコンフィグレーションによる プロセス制御
論文 参考訳(メタデータ) (2024-10-14T23:03:58Z) - Fortify the Guardian, Not the Treasure: Resilient Adversarial Detectors [0.0]
アダプティブアタックとは、攻撃者が防御を意識し、その戦略を適応させる攻撃である。
提案手法は, クリーンな精度を損なうことなく, 敵の訓練を活用して攻撃を検知する能力を強化する。
CIFAR-10とSVHNデータセットの実験的評価により,提案アルゴリズムは,適応的敵攻撃を正確に識別する検出器の能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-04-18T12:13:09Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Robust Adversarial Attacks Detection based on Explainable Deep
Reinforcement Learning For UAV Guidance and Planning [4.640835690336653]
公の場で活動する無人航空機(UAV)エージェントに対する敵攻撃が増加している。
深層学習(DL)アプローチによるこれらのUAVの制御と誘導は、パフォーマンスの観点からは有益であるが、これらのテクニックの安全性と敵の攻撃に対する脆弱性に対する懸念を追加する可能性がある。
本稿では、これらのDLスキームとUAVを攻撃から保護する効率的な検出器を構築するためのDL法の説明可能性に基づく革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:16:10Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Unsupervised Intrusion Detection System for Unmanned Aerial Vehicle with
Less Labeling Effort [8.8519643723088]
以前の方法ではデータセットに大規模なラベル付け作業が必要だったため、モデルでは以前にトレーニングされたことのない攻撃を特定できなかった。
本稿では,教師なし学習を用いたIDSを提案する。これは,飛行データから攻撃の種類をラベル付けしないようにするものである。
我々は、良性飛行データのみを用いてオートエンコーダを訓練し、そのモデルが良性飛行と攻撃中の飛行において異なる復元損失をもたらすことを確認した。
論文 参考訳(メタデータ) (2020-11-01T15:52:22Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。