論文の概要: Clean-Annotation Backdoor Attack against Lane Detection Systems in the
Wild
- arxiv url: http://arxiv.org/abs/2203.00858v1
- Date: Wed, 2 Mar 2022 04:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 14:44:49.499966
- Title: Clean-Annotation Backdoor Attack against Lane Detection Systems in the
Wild
- Title(参考訳): 野生の車線検出システムに対するクリーンアノテーションバックドア攻撃
- Authors: Xingshuo Han, Guowen Xu, Yuan Zhou, Xuehuan Yang, Jiwei Li, Tianwei
Zhang
- Abstract要約: 物理的世界における車線検出システムに対する最初のバックドア攻撃を提示する。
そこで我々は,特定のポーズや位置を持つトラフィックコーンを利用してバックドアを活性化する,新しいセマンティックトリガ設計を提案する。
公共のデータセットと物理的な自動運転車に関する総合的な評価は、私たちのバックドア攻撃が効果的で、ステルス的で、堅牢であることを示している。
- 参考スコア(独自算出の注目度): 30.47904057580915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first backdoor attack against the lane detection systems in
the physical world. Modern autonomous vehicles adopt various deep learning
methods to train lane detection models, making it challenging to devise a
universal backdoor attack technique. In our solution, (1) we propose a novel
semantic trigger design, which leverages the traffic cones with specific poses
and locations to activate the backdoor. Such trigger can be easily realized
under the physical setting, and looks very natural not to be detected. (2) We
introduce a new clean-annotation approach to generate poisoned samples. These
samples have correct annotations but are still capable of embedding the
backdoor to the model. Comprehensive evaluations on public datasets and
physical autonomous vehicles demonstrate that our backdoor attack is effective,
stealthy and robust.
- Abstract(参考訳): 物理的世界における車線検出システムに対する最初のバックドア攻撃を提示する。
現代の自動運転車は、車線検出モデルを訓練するために様々なディープラーニング手法を採用している。
提案手法では,(1)特定のポーズと位置を持ったトラヒックコーンを利用してバックドアをアクティベートする,新しいセマンティックトリガー設計を提案する。
このようなトリガーは物理的な設定で容易に実現でき、検出されないのは自然に見えます。
2) 汚染試料を生成するための新しいクリーンアノテーション手法を提案する。
これらのサンプルは正しいアノテーションを持っているが、モデルにバックドアを埋め込むことができる。
パブリックデータセットと物理的自動運転車に関する総合的な評価は、我々のバックドア攻撃が効果的でステルス的で堅牢であることを示しています。
関連論文リスト
- On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World [27.581277955830746]
アプリケーション設定における物理オブジェクトトリガーによるバックドア攻撃の有効性について検討する。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、検出タスクのユニークな性質を取り入れた。
私たちは、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
論文 参考訳(メタデータ) (2024-08-22T04:29:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - WaNet -- Imperceptible Warping-based Backdoor Attack [20.289889150949836]
サードパーティーのモデルは、通常の状況でうまく機能するようにトレーニング中に毒を盛るが、トリガーパターンが現れると悪質に振る舞う。
本稿では,サードパーティモデルに対してワーピングベースのトリガーを用いた攻撃手法を提案する。
提案したバックドアは、人間の検査試験における従来の方法よりも広いマージンで優れており、そのステルス性を証明している。
論文 参考訳(メタデータ) (2021-02-20T15:25:36Z) - Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks [46.99548490594115]
バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
論文 参考訳(メタデータ) (2020-07-05T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。