論文の概要: IMPOSITION: Implicit Backdoor Attack through Scenario Injection
- arxiv url: http://arxiv.org/abs/2306.15755v1
- Date: Tue, 27 Jun 2023 19:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 16:54:28.413404
- Title: IMPOSITION: Implicit Backdoor Attack through Scenario Injection
- Title(参考訳): IMPOSITION:シナリオ注入によるバックドア攻撃
- Authors: Mozhgan Pourkeshavarz, Mohammad Sabokrou, Amir Rasouli
- Abstract要約: 本稿では,IMPOSITION (IMPlicit BackdOor Attack through Scenario InjecTION) と呼ばれる新しいバックドア攻撃について述べる。
この攻撃は、推論中にモデルの出力を操作するトリガーとして、トレーニングデータから現実的なシナリオを活用する。
本稿では,この攻撃を自律運転システム(AD)に応用することに焦点を当てる。
- 参考スコア(独自算出の注目度): 14.846377138993642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel backdoor attack called IMPlicit BackdOor Attack
through Scenario InjecTION (IMPOSITION) that does not require direct poisoning
of the training data. Instead, the attack leverages a realistic scenario from
the training data as a trigger to manipulate the model's output during
inference. This type of attack is particularly dangerous as it is stealthy and
difficult to detect. The paper focuses on the application of this attack in the
context of Autonomous Driving (AD) systems, specifically targeting the
trajectory prediction module. To implement the attack, we design a trigger
mechanism that mimics a set of cloned behaviors in the driving scene, resulting
in a scenario that triggers the attack. The experimental results demonstrate
that IMPOSITION is effective in attacking trajectory prediction models while
maintaining high performance in untargeted scenarios. Our proposed method
highlights the growing importance of research on the trustworthiness of Deep
Neural Network (DNN) models, particularly in safety-critical applications.
Backdoor attacks pose a significant threat to the safety and reliability of DNN
models, and this paper presents a new perspective on backdooring DNNs. The
proposed IMPOSITION paradigm and the demonstration of its severity in the
context of AD systems are significant contributions of this paper. We highlight
the impact of the proposed attacks via empirical studies showing how IMPOSITION
can easily compromise the safety of AD systems.
- Abstract(参考訳): 本稿では,トレーニングデータの直接的中毒を必要としないIMPOSITION(IMPlicit BackdOor Attack)と呼ばれる,新たなバックドア攻撃を提案する。
代わりに、この攻撃はトレーニングデータからの現実的なシナリオをトリガーとして活用し、推論中にモデルの出力を操作する。
この種の攻撃は、ステルス的で検出が難しいため、特に危険である。
本論文は,この攻撃を自律運転(ad)システム,特に軌道予測モジュールを対象とする状況において応用することに焦点を当てた。
攻撃を実装するために,運転シーンにおける一連のクローン動作を模倣したトリガー機構を設計し,その結果,攻撃をトリガーするシナリオを作成する。
実験結果は,非目標シナリオにおいて高い性能を維持しつつ,軌道予測モデルへの攻撃に有効であることを示した。
提案手法は,ディープニューラルネットワーク(DNN)モデル,特に安全クリティカルな応用における信頼性に関する研究の重要性を高めるものである。
バックドア攻撃はDNNモデルの安全性と信頼性に重大な脅威をもたらす。
提案するIMPOSITIONパラダイムとADシステムにおける重大性の実証は,本論文の重要な貢献である。
本研究は、IMPOSITIONがADシステムの安全性をいかに容易に損なえるかを示す実証実験による攻撃の効果を強調した。
関連論文リスト
- A First Physical-World Trajectory Prediction Attack via LiDAR-induced Deceptions in Autonomous Driving [23.08193005790747]
既存の攻撃は、被害者AVの予測モデルを損なう。
単点攻撃を実現するための新たな2段階攻撃フレームワークを提案する。
我々の攻撃は、最大63%の衝突率と、被害者AVの様々な有害反応を引き起こす。
論文 参考訳(メタデータ) (2024-06-17T16:26:00Z) - Hacking Predictors Means Hacking Cars: Using Sensitivity Analysis to Identify Trajectory Prediction Vulnerabilities for Autonomous Driving Security [1.949927790632678]
本稿では,2つの軌道予測モデルである Trajectron++ と AgentFormer の感度解析を行う。
この分析により、全ての入力の間に、両方のモデルに対する摂動感度のほぼ全ては、最新の位置と速度状態にしか属さないことが明らかとなった。
さらに、状態履歴の摂動に支配的な感度があるにもかかわらず、検出不能な画像マップ摂動は、両方のモデルで大きな予測誤差の増加を誘発することを示した。
論文 参考訳(メタデータ) (2024-01-18T18:47:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Robust Multivariate Time-Series Forecasting: Adversarial Attacks and
Defense Mechanisms [17.75675910162935]
新しい攻撃パターンは、ターゲット時系列の予測に悪影響を及ぼす。
我々は、このような攻撃の影響を軽減するための2つの防衛戦略を開発する。
実世界のデータセットの実験では、攻撃方式が強力であることを確認しています。
論文 参考訳(メタデータ) (2022-07-19T22:00:41Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。