論文の概要: BadDet+: Robust Backdoor Attacks for Object Detection
- arxiv url: http://arxiv.org/abs/2601.21066v1
- Date: Wed, 28 Jan 2026 21:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.449014
- Title: BadDet+: Robust Backdoor Attacks for Object Detection
- Title(参考訳): BadDet+:オブジェクト検出のためのロバストなバックドアアタック
- Authors: Kealan Dunnett, Reza Arablouei, Dimity Miller, Volkan Dedeoglu, Raja Jurdak,
- Abstract要約: BadDet+は、Regional Misclassification Attacks(RMA)とObject Disappearance Attacks(ODA)を統合したペナルティベースのフレームワークである。
実世界のベンチマークでは、BadDet+は、クリーンなパフォーマンスを維持しながら既存のRMAやOdaベースラインよりも優れた合成と物理の転送を実現している。
これらの結果は、物体検出における重大な脆弱性と、特殊防御の必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 10.393154496941527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks pose a severe threat to deep learning, yet their impact on object detection remains poorly understood compared to image classification. While attacks have been proposed, we identify critical weaknesses in existing detection-based methods, specifically their reliance on unrealistic assumptions and a lack of physical validation. To bridge this gap, we introduce BadDet+, a penalty-based framework that unifies Region Misclassification Attacks (RMA) and Object Disappearance Attacks (ODA). The core mechanism utilizes a log-barrier penalty to suppress true-class predictions for triggered inputs, resulting in (i) position and scale invariance, and (ii) enhanced physical robustness. On real-world benchmarks, BadDet+ achieves superior synthetic-to-physical transfer compared to existing RMA and ODA baselines while preserving clean performance. Theoretical analysis confirms the proposed penalty acts within a trigger-specific feature subspace, reliably inducing attacks without degrading standard inference. These results highlight significant vulnerabilities in object detection and the necessity for specialized defenses.
- Abstract(参考訳): バックドア攻撃は深層学習に深刻な脅威をもたらすが、物体検出に対する影響は、画像分類と比較してもよく理解されていない。
攻撃は提案されているが、既存の検出手法における重大な弱点、特に非現実的な仮定への依存と物理的検証の欠如を明らかにする。
このギャップを埋めるために、我々は、Regional Misclassification Attacks (RMA) と Object Disappearance Attacks (ODA) を統一するペナルティベースのフレームワークであるBadDet+を紹介した。
コアメカニズムはログバリアペナルティを利用して、トリガ入力の真のクラス予測を抑える。
一 位置及びスケールのばらつき、及び
(II)体力の強化。
実世界のベンチマークでは、BadDet+は、クリーンなパフォーマンスを維持しながら既存のRMAやOdaベースラインよりも優れた合成と物理の転送を実現している。
理論的解析により、提案されたペナルティは、標準推論を劣化させることなく確実に攻撃を誘発するトリガー特異的特徴部分空間内に存在することが確認される。
これらの結果は、物体検出における重大な脆弱性と、特殊防御の必要性を浮き彫りにしている。
関連論文リスト
- DisPatch: Disarming Adversarial Patches in Object Detection with Diffusion Models [8.800216228212824]
最先端のオブジェクト検出器はいまだに敵のパッチ攻撃に弱い。
オブジェクト検出のための最初の拡散型防御フレームワークであるDisdisを紹介する。
DISは、隠蔽攻撃と攻撃生成の両方において、最先端の防御を一貫して上回る。
論文 参考訳(メタデータ) (2025-09-04T18:20:36Z) - Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - Enhancing Object Detection Robustness: Detecting and Restoring Confidence in the Presence of Adversarial Patch Attacks [2.963101656293054]
敵パッチに対するYOLOv5モデルの防御機構について検討した。
我々はSegment and Complete (SAC)、Inpainting、Latent Diffusion Modelsを含むいくつかの防衛実験を行った。
その結果, 対向パッチは平均検出信頼度を22.06%低下させることがわかった。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Defending Large Language Models against Jailbreak Attacks via Semantic
Smoothing [107.97160023681184]
適応型大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
提案するSEMANTICSMOOTHは,与えられた入力プロンプトのセマンティック変換されたコピーの予測を集約するスムージングベースのディフェンスである。
論文 参考訳(メタデータ) (2024-02-25T20:36:03Z) - PuriDefense: Randomized Local Implicit Adversarial Purification for Defending Black-box Query-based Attacks [17.613736258543096]
ブラックボックスクエリベースの攻撃は機械学習・アズ・ア・サービス(ML)システムに脅威を与える。
低レベルの推論コストで軽量な浄化モデルのアンサンブルでランダムなパッチワイズ処理を施した効率的な防御機構であるPuriDefenseを提案する。
我々の理論的分析は、ランダム性を浄化に組み込むことで、クエリベースの攻撃の収束を遅くすることを示唆している。
論文 参考訳(メタデータ) (2024-01-19T09:54:23Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。