論文の概要: Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2306.15755v2
- Date: Wed, 22 Nov 2023 16:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 18:53:02.586946
- Title: Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving
- Title(参考訳): 自律運転における軌道予測における自然データ中毒による逆向きバックドア攻撃
- Authors: Mozhgan Pourkeshavarz, Mohammad Sabokrou, Amir Rasouli
- Abstract要約: 本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
- 参考スコア(独自算出の注目度): 18.72382517467458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In autonomous driving, behavior prediction is fundamental for safe motion
planning, hence the security and robustness of prediction models against
adversarial attacks are of paramount importance. We propose a novel adversarial
backdoor attack against trajectory prediction models as a means of studying
their potential vulnerabilities. Our attack affects the victim at training time
via naturalistic, hence stealthy, poisoned samples crafted using a novel
two-step approach. First, the triggers are crafted by perturbing the trajectory
of attacking vehicle and then disguised by transforming the scene using a
bi-level optimization technique. The proposed attack does not depend on a
particular model architecture and operates in a black-box manner, thus can be
effective without any knowledge of the victim model. We conduct extensive
empirical studies using state-of-the-art prediction models on two benchmark
datasets using metrics customized for trajectory prediction. We show that the
proposed attack is highly effective, as it can significantly hinder the
performance of prediction models, unnoticeable by the victims, and efficient as
it forces the victim to generate malicious behavior even under constrained
conditions. Via ablative studies, we analyze the impact of different attack
design choices followed by an evaluation of existing defence mechanisms against
the proposed attack.
- Abstract(参考訳): 自律運転においては、行動予測は安全な運動計画の基本であり、敵の攻撃に対する予測モデルの安全性と堅牢性が最も重要である。
我々は,その潜在的な脆弱性を調べる手段として,軌道予測モデルに対する新たな反逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルによって、訓練時に被害者に影響を与える。
第一に、トリガーは攻撃車両の軌道を摂動させ、二段最適化技術を用いてシーンを変換して擬似化する。
提案攻撃は特定のモデルアーキテクチャに依存しず,ブラックボックス方式で動作するため,被害者モデルに関する知識がなくても有効である。
軌道予測のためにカスタマイズされた指標を用いて、2つのベンチマークデータセットの最先端予測モデルを用いて広範な実験研究を行う。
提案手法は, 予測モデルの性能を著しく阻害し, 被害者に気づかれず, かつ, 被害者が制約条件下であっても悪質な行動を起こすことを強いるため, 効果的であることを示す。
アブレーション研究を通じて,異なる攻撃設計選択の影響を解析し,提案する攻撃に対する既存の防御機構を評価する。
関連論文リスト
- A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving [23.08193005790747]
既存の攻撃は、被害者AVの予測モデルを損なう。
単点攻撃を実現するための新たな2段階攻撃フレームワークを提案する。
我々の攻撃は、最大63%の衝突率と、被害者AVの様々な有害反応を引き起こす。
論文 参考訳(メタデータ) (2024-06-17T16:26:00Z) - Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to Identify Trajectory Prediction Vulnerabilities for Autonomous Driving Security [1.949927790632678]
本稿では,2つの軌道予測モデルである Trajectron++ と AgentFormer の感度解析を行う。
この分析により、全ての入力の間に、両方のモデルに対する摂動感度のほぼ全ては、最新の位置と速度状態にしか属さないことが明らかとなった。
さらに、状態履歴の摂動に支配的な感度があるにもかかわらず、検出不能な画像マップ摂動は、両方のモデルで大きな予測誤差の増加を誘発することを示した。
論文 参考訳(メタデータ) (2024-01-18T18:47:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Robust Multivariate Time-Series Forecasting: Adversarial Attacks and
Defense Mechanisms [17.75675910162935]
新しい攻撃パターンは、ターゲット時系列の予測に悪影響を及ぼす。
我々は、このような攻撃の影響を軽減するための2つの防衛戦略を開発する。
実世界のデータセットの実験では、攻撃方式が強力であることを確認しています。
論文 参考訳(メタデータ) (2022-07-19T22:00:41Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。