論文の概要: AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection
- arxiv url: http://arxiv.org/abs/2411.14243v1
- Date: Thu, 21 Nov 2024 15:50:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:20:38.430698
- Title: AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection
- Title(参考訳): AnywhereDoor:オブジェクト検出におけるマルチターゲットバックドアアタック
- Authors: Jialin Lu, Junjie Shan, Ziqi Zhao, Ka-Ho Chow,
- Abstract要約: AnywhereDoorは、オブジェクト検出に適した柔軟なバックドア攻撃だ。
攻撃者に対して高い制御能力を提供し、攻撃成功率を80%近く向上させる。
- 参考スコア(独自算出の注目度): 9.539021752700823
- License:
- Abstract: As object detection becomes integral to many safety-critical applications, understanding its vulnerabilities is essential. Backdoor attacks, in particular, pose a significant threat by implanting hidden backdoor in a victim model, which adversaries can later exploit to trigger malicious behaviors during inference. However, current backdoor techniques are limited to static scenarios where attackers must define a malicious objective before training, locking the attack into a predetermined action without inference-time adaptability. Given the expressive output space in object detection, including object existence detection, bounding box estimation, and object classification, the feasibility of implanting a backdoor that provides inference-time control with a high degree of freedom remains unexplored. This paper introduces AnywhereDoor, a flexible backdoor attack tailored for object detection. Once implanted, AnywhereDoor enables adversaries to specify different attack types (object vanishing, fabrication, or misclassification) and configurations (untargeted or targeted with specific classes) to dynamically control detection behavior. This flexibility is achieved through three key innovations: (i) objective disentanglement to support a broader range of attack combinations well beyond what existing methods allow; (ii) trigger mosaicking to ensure backdoor activations are robust, even against those object detectors that extract localized regions from the input image for recognition; and (iii) strategic batching to address object-level data imbalances that otherwise hinders a balanced manipulation. Extensive experiments demonstrate that AnywhereDoor provides attackers with a high degree of control, achieving an attack success rate improvement of nearly 80% compared to adaptations of existing methods for such flexible control.
- Abstract(参考訳): オブジェクト検出は多くのセーフティクリティカルなアプリケーションに不可欠なものとなるため、その脆弱性を理解することが不可欠である。
特にバックドア攻撃は、被害者モデルに隠れたバックドアを埋め込むことで重大な脅威となる。
しかしながら、現在のバックドアテクニックは、トレーニング前に攻撃者が悪意のある目標を定義し、推論時適応性のない所定のアクションにアタックをロックしなければならない静的シナリオに限られている。
オブジェクト検出における表現的な出力空間、例えばオブジェクトの存在検出、境界ボックス推定、オブジェクト分類などを考えると、高い自由度で推論時間制御を提供するバックドアを埋め込むことが可能である。
本稿では,オブジェクト検出に適したフレキシブルバックドアアタックであるAnywhereDoorを紹介する。
一度埋め込むと、AnywhereDoorは、敵が異なる攻撃タイプ(オブジェクトの消滅、製造、誤分類)と設定(特定のクラスを対象または対象としていない)を指定して、検出動作を動的に制御することを可能にする。
この柔軟性は3つの重要なイノベーションによって実現されます。
一 既存の方法が許す範囲を超えて、より広範囲の攻撃の組み合わせを支援する目的のゆがみ
二 入力画像から局所領域を抽出して認識する対象検出器に対しても、バックドアアクティベーションの堅牢性を確保するためのトリガーモザイク
3) オブジェクトレベルのデータの不均衡に対処するための戦略的バッチ処理。
大規模な実験では、AnywhereDoorは攻撃者に高いコントロールを提供し、攻撃の成功率を80%近く向上させる。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - LOTUS: Evasive and Resilient Backdoor Attacks through Sub-Partitioning [49.174341192722615]
バックドア攻撃は、ディープラーニングアプリケーションに重大なセキュリティ脅威をもたらす。
近年の研究では、特殊な変換機能によって作られたサンプル特異的に見えないトリガーを用いた攻撃が導入されている。
我々は、回避性とレジリエンスの両方に対処するために、新しいバックドアアタックLOTUSを導入する。
論文 参考訳(メタデータ) (2024-03-25T21:01:29Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。