論文の概要: GPS Spoofing Attacks on AI-based Navigation Systems with Obstacle Avoidance in UAV
- arxiv url: http://arxiv.org/abs/2506.08445v1
- Date: Tue, 10 Jun 2025 04:42:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.474194
- Title: GPS Spoofing Attacks on AI-based Navigation Systems with Obstacle Avoidance in UAV
- Title(参考訳): UAVにおける障害物回避型AIナビゲーションシステムにおけるGPSスポーフィング攻撃
- Authors: Ji Hyuk Jung, Mi Yeon Hong, Ji Won Yoon,
- Abstract要約: 我々はDRLベースのナビゲーションシステムにおけるセキュリティ脆弱性の研究を行い、特にシステムに対するGPSスプーフィング攻撃に焦点を当てた。
本稿では,PX4オートパイロットのEKFセンサ融合に対するスプーフィング攻撃範囲を短時間にモデル化したGPSスプーフィング攻撃による攻撃モデルを提案する。
最後に,本研究では,DRLシステムとPX4オートパイロットシステムを組み合わせた攻撃モデルの両方において,攻撃が可能であることを実験的に実証した。
- 参考スコア(独自算出の注目度): 2.423735225769664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, approaches using Deep Reinforcement Learning (DRL) have been proposed to solve UAV navigation systems in complex and unknown environments. However, despite extensive research and attention, systematic studies on various security aspects have not yet been conducted. Therefore, in this paper, we conduct research on security vulnerabilities in DRL-based navigation systems, particularly focusing on GPS spoofing attacks against the system. Many recent basic DRL-based navigation systems fundamentally share an efficient structure. This paper presents an attack model that operates through GPS spoofing attacks briefly modeling the range of spoofing attack against EKF sensor fusion of PX4 autopilot, and combine this with the DRL-based system to design attack scenarios that are closer to reality. Finally, this paper experimentally demonstrated that attacks are possible both in the basic DRL system and in attack models combining the DRL system with PX4 autopilot system.
- Abstract(参考訳): 近年,UAVナビゲーションシステムを複雑で未知の環境で解くために,DRL (Deep Reinforcement Learning) を用いた手法が提案されている。
しかし、広範な研究や注目にもかかわらず、様々なセキュリティ面に関する体系的研究はまだ行われていない。
そこで本研究では,DRLに基づくナビゲーションシステムにおけるセキュリティ脆弱性の研究を行い,特にGPSスプーフィング攻撃に着目した。
最近のDRLベースのナビゲーションシステムは、基本的に効率的な構造を共有している。
本稿では,PX4オートパイロットのEKFセンサ融合に対するスプーフィング攻撃範囲を短時間にモデル化したGPSスプーフィング攻撃による攻撃モデルをDRLベースシステムと組み合わせ,現実に近い攻撃シナリオを設計する。
最後に,本研究では,DRLシステムとPX4オートパイロットシステムを組み合わせた攻撃モデルの両方において,攻撃が可能であることを実験的に実証した。
関連論文リスト
- Charging Ahead: A Hierarchical Adversarial Framework for Counteracting Advanced Cyber Threats in EV Charging Stations [1.873794246359724]
電気自動車(EV)は、より高い充電優先度を得るために偽情報を提供し、グリッド不安定を引き起こす可能性がある。
本稿では,EV充電ステーションにおける盗難サイバー攻撃を効果的に検出するDRL(HADRL)を用いた階層的対向フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-04T08:23:03Z) - How Secure Are Large Language Models (LLMs) for Navigation in Urban Environments? [32.05931191814951]
本稿では,従来のナビゲーションプロンプトを摂動することで,LSMに基づくナビゲーションモデルを操作する新しいナビゲーションプロンプト攻撃を提案する。
その結果,ホワイトボックス攻撃とブラックボックス攻撃の両方に直面した7つの指標において,顕著なパフォーマンス低下が認められた。
最初の対策として,ナビゲーション・プロンプト・エンジニアリング(NPE)防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:45:17Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Learning Multi-Pursuit Evasion for Safe Targeted Navigation of Drones [0.0]
本稿では,非同期多段階深部強化学習(AMS-DRL)による対向ニューラルネットワークの学習手法を提案する。
AMS-DRLは、追従者および回避者を二部グラフで非同期に訓練する追従回避ゲームにおいて、敵エージェントを進化させる。
本手法を広範囲なシミュレーションで評価し,航法成功率の高いベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-07T01:59:16Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。