論文の概要: AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection
- arxiv url: http://arxiv.org/abs/2411.14243v2
- Date: Fri, 14 Mar 2025 04:12:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:04:49.661785
- Title: AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection
- Title(参考訳): AnywhereDoor:オブジェクト検出におけるマルチターゲットバックドアアタック
- Authors: Jialin Lu, Junjie Shan, Ziqi Zhao, Ka-Ho Chow,
- Abstract要約: AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
- 参考スコア(独自算出の注目度): 9.539021752700823
- License:
- Abstract: As object detection becomes integral to many safety-critical applications, understanding its vulnerabilities is essential. Backdoor attacks, in particular, pose a serious threat by implanting hidden triggers in victim models, which adversaries can later exploit to induce malicious behaviors during inference. However, current understanding is limited to single-target attacks, where adversaries must define a fixed malicious behavior (target) before training, making inference-time adaptability impossible. Given the large output space of object detection (including object existence prediction, bounding box estimation, and classification), the feasibility of flexible, inference-time model control remains unexplored. This paper introduces AnywhereDoor, a multi-target backdoor attack for object detection. Once implanted, AnywhereDoor allows adversaries to make objects disappear, fabricate new ones, or mislabel them, either across all object classes or specific ones, offering an unprecedented degree of control. This flexibility is enabled by three key innovations: (i) objective disentanglement to scale the number of supported targets; (ii) trigger mosaicking to ensure robustness even against region-based detectors; and (iii) strategic batching to address object-level data imbalances that hinder manipulation. Extensive experiments demonstrate that AnywhereDoor grants attackers a high degree of control, improving attack success rates by 26% compared to adaptations of existing methods for such flexible control.
- Abstract(参考訳): オブジェクト検出は多くのセーフティクリティカルなアプリケーションに不可欠なものとなるため、その脆弱性を理解することが不可欠である。
特にバックドア攻撃は、被害者モデルに隠れたトリガーを埋め込むことで深刻な脅威となる。
しかし、現在の理解は単一ターゲット攻撃に限定されており、敵はトレーニング前に固定された悪意のある振る舞い(ターゲット)を定義しなければならないため、推論時適応性は不可能である。
オブジェクト検出の大規模な出力空間(オブジェクト存在予測、境界ボックス推定、分類を含む)を考えると、フレキシブルな推論時モデル制御の可能性は未解明のままである。
本稿では,オブジェクト検出のためのマルチターゲットバックドアアタックであるAnywhereDoorを紹介する。
一度埋め込むと、AnywhereDoorは、敵がオブジェクトを消し去り、新しいものを作ったり、それらを間違えたりすることを許し、すべてのオブジェクトクラスまたは特定のクラスにまたがって、前例のないレベルのコントロールを提供する。
この柔軟性は、3つの重要なイノベーションによって実現されます。
一 支援対象の数を拡大するための客観的なゆがみ
(二)モザイクをトリガーして、地域ベースの検出器に対しても堅牢性を確保すること。
3)操作を妨げるオブジェクトレベルのデータ不均衡に対処するための戦略的バッチ処理。
大規模な実験では、AnywhereDoorが攻撃者に高いコントロールを与え、攻撃の成功率を26%向上させる。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - LOTUS: Evasive and Resilient Backdoor Attacks through Sub-Partitioning [49.174341192722615]
バックドア攻撃は、ディープラーニングアプリケーションに重大なセキュリティ脅威をもたらす。
近年の研究では、特殊な変換機能によって作られたサンプル特異的に見えないトリガーを用いた攻撃が導入されている。
我々は、回避性とレジリエンスの両方に対処するために、新しいバックドアアタックLOTUSを導入する。
論文 参考訳(メタデータ) (2024-03-25T21:01:29Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。