論文の概要: AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection
- arxiv url: http://arxiv.org/abs/2503.06529v2
- Date: Thu, 13 Mar 2025 04:18:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 12:09:35.229609
- Title: AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection
- Title(参考訳): AnywhereDoor:オブジェクト検出におけるマルチターゲットバックドアアタック
- Authors: Jialin Lu, Junjie Shan, Ziqi Zhao, Ka-Ho Chow,
- Abstract要約: AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
- 参考スコア(独自算出の注目度): 9.539021752700823
- License:
- Abstract: As object detection becomes integral to many safety-critical applications, understanding its vulnerabilities is essential. Backdoor attacks, in particular, pose a serious threat by implanting hidden triggers in victim models, which adversaries can later exploit to induce malicious behaviors during inference. However, current understanding is limited to single-target attacks, where adversaries must define a fixed malicious behavior (target) before training, making inference-time adaptability impossible. Given the large output space of object detection (including object existence prediction, bounding box estimation, and classification), the feasibility of flexible, inference-time model control remains unexplored. This paper introduces AnywhereDoor, a multi-target backdoor attack for object detection. Once implanted, AnywhereDoor allows adversaries to make objects disappear, fabricate new ones, or mislabel them, either across all object classes or specific ones, offering an unprecedented degree of control. This flexibility is enabled by three key innovations: (i) objective disentanglement to scale the number of supported targets; (ii) trigger mosaicking to ensure robustness even against region-based detectors; and (iii) strategic batching to address object-level data imbalances that hinder manipulation. Extensive experiments demonstrate that AnywhereDoor grants attackers a high degree of control, improving attack success rates by 26% compared to adaptations of existing methods for such flexible control.
- Abstract(参考訳): オブジェクト検出は多くのセーフティクリティカルなアプリケーションに不可欠なものとなるため、その脆弱性を理解することが不可欠である。
特にバックドア攻撃は、被害者モデルに隠れたトリガーを埋め込むことで深刻な脅威となる。
しかし、現在の理解は単一ターゲット攻撃に限定されており、敵はトレーニング前に固定された悪意のある振る舞い(ターゲット)を定義しなければならないため、推論時適応性は不可能である。
オブジェクト検出の大規模な出力空間(オブジェクト存在予測、境界ボックス推定、分類を含む)を考えると、フレキシブルな推論時モデル制御の可能性は未解明のままである。
本稿では,オブジェクト検出のためのマルチターゲットバックドアアタックであるAnywhereDoorを紹介する。
一度埋め込むと、AnywhereDoorは、敵がオブジェクトを消し去り、新しいものを作ったり、それらを間違えたりすることを許し、すべてのオブジェクトクラスまたは特定のクラスにまたがって、前例のないレベルのコントロールを提供する。
この柔軟性は、3つの重要なイノベーションによって実現されます。
一 支援対象の数を拡大するための客観的なゆがみ
(二)モザイクをトリガーして、地域ベースの検出器に対しても堅牢性を確保すること。
3)操作を妨げるオブジェクトレベルのデータ不均衡に対処するための戦略的バッチ処理。
大規模な実験では、AnywhereDoorが攻撃者に高いコントロールを与え、攻撃の成功率を26%向上させる。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出に適した柔軟なバックドア攻撃だ。
攻撃者に対して高い制御能力を提供し、攻撃成功率を80%近く向上させる。
論文 参考訳(メタデータ) (2024-11-21T15:50:59Z) - Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BadDet: Backdoor Attacks on Object Detection [42.40418007499009]
対象物検出のための4種類のバックドア攻撃を提案する。
トリガーは、ターゲットクラスのオブジェクトを誤って生成することができる。
単一のトリガーは、イメージ内のすべてのオブジェクトの予測をターゲットクラスに変更することができる。
論文 参考訳(メタデータ) (2022-05-28T18:02:11Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。