論文の概要: A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2406.11707v1
- Date: Mon, 17 Jun 2024 16:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 13:43:30.094404
- Title: A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving
- Title(参考訳): 自律運転におけるLiDARによる偽装による第1次物理世界軌道予測
- Authors: Yang Lou, Yi Zhu, Qun Song, Rui Tan, Chunming Qiao, Wei-Bin Lee, Jianping Wang,
- Abstract要約: 既存の攻撃は、被害者AVの予測モデルを損なう。
単点攻撃を実現するための新たな2段階攻撃フレームワークを提案する。
我々の攻撃は、最大63%の衝突率と、被害者AVの様々な有害反応を引き起こす。
- 参考スコア(独自算出の注目度): 23.08193005790747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory prediction forecasts nearby agents' moves based on their historical trajectories. Accurate trajectory prediction is crucial for autonomous vehicles. Existing attacks compromise the prediction model of a victim AV by directly manipulating the historical trajectory of an attacker AV, which has limited real-world applicability. This paper, for the first time, explores an indirect attack approach that induces prediction errors via attacks against the perception module of a victim AV. Although it has been shown that physically realizable attacks against LiDAR-based perception are possible by placing a few objects at strategic locations, it is still an open challenge to find an object location from the vast search space in order to launch effective attacks against prediction under varying victim AV velocities. Through analysis, we observe that a prediction model is prone to an attack focusing on a single point in the scene. Consequently, we propose a novel two-stage attack framework to realize the single-point attack. The first stage of prediction-side attack efficiently identifies, guided by the distribution of detection results under object-based attacks against perception, the state perturbations for the prediction model that are effective and velocity-insensitive. In the second stage of location matching, we match the feasible object locations with the found state perturbations. Our evaluation using a public autonomous driving dataset shows that our attack causes a collision rate of up to 63% and various hazardous responses of the victim AV. The effectiveness of our attack is also demonstrated on a real testbed car. To the best of our knowledge, this study is the first security analysis spanning from LiDAR-based perception to prediction in autonomous driving, leading to a realistic attack on prediction. To counteract the proposed attack, potential defenses are discussed.
- Abstract(参考訳): 軌道予測は、その歴史的軌跡に基づいて、近隣のエージェントの動きを予測する。
正確な軌道予測は自動運転車にとって不可欠である。
既存の攻撃は、実際の適用範囲が限られている攻撃者AVの歴史的軌跡を直接操作することで、被害者AVの予測モデルを損なう。
本稿では,被害者AVの知覚モジュールに対する攻撃を通じて,間接攻撃による予測誤差を誘導する手法を初めて検討する。
物理的に実現可能なLiDARベースの知覚に対する攻撃は、いくつかのオブジェクトを戦略的な場所に配置することで可能であることが示されているが、様々な犠牲者のAV速度下での予測に対する効果的な攻撃を開始するために、巨大な検索空間からオブジェクトの位置を見つけることは、依然としてオープンな課題である。
解析により,現場の単一点に焦点をあてた攻撃に対して,予測モデルが適用されやすいことが明らかとなった。
そこで本研究では,単一点攻撃を実現するための新たな2段階攻撃フレームワークを提案する。
予測側攻撃の第1段階は、オブジェクトベースの知覚に対する攻撃による検出結果の分布、有効かつ速度に敏感な予測モデルに対する状態摂動に導かれる。
位置マッチングの第2段階では、実現可能な物体の位置と検出された状態の摂動とを一致させる。
公共の自律運転データセットを用いた評価では,攻撃によって最大63%の衝突率と各種の危険応答が生じることが示された。
また,実際のテストベッド車にも攻撃の有効性が示された。
我々の知る限りでは、この研究はLiDARに基づく認識から自動運転の予測まで、初めてのセキュリティ分析であり、予測に対する現実的な攻撃につながります。
提案された攻撃に対抗するため、潜在的な防御について論じる。
関連論文リスト
- Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to Identify Trajectory Prediction Vulnerabilities for Autonomous Driving Security [1.949927790632678]
本稿では,2つの軌道予測モデルである Trajectron++ と AgentFormer の感度解析を行う。
この分析により、全ての入力の間に、両方のモデルに対する摂動感度のほぼ全ては、最新の位置と速度状態にしか属さないことが明らかとなった。
さらに、状態履歴の摂動に支配的な感度があるにもかかわらず、検出不能な画像マップ摂動は、両方のモデルで大きな予測誤差の増加を誘発することを示した。
論文 参考訳(メタデータ) (2024-01-18T18:47:29Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - On Adversarial Robustness of Trajectory Prediction for Autonomous
Vehicles [21.56253104577053]
軌道予測は、安全な計画とナビゲーションを行う自動運転車にとって重要な要素である。
本稿では,予測誤差を最大化するために,通常の車両軌道を乱す新たな対向攻撃を提案する。
ケーススタディでは、敵が敵の軌道に沿って目標のAVに近い車両を運転した場合、AVは不正確な予測を行い、安全でない運転決定を行う可能性がある。
論文 参考訳(メタデータ) (2022-01-13T16:33:04Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。