論文の概要: DisPatch: Disarming Adversarial Patches in Object Detection with Diffusion Models
- arxiv url: http://arxiv.org/abs/2509.04597v1
- Date: Thu, 04 Sep 2025 18:20:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.383161
- Title: DisPatch: Disarming Adversarial Patches in Object Detection with Diffusion Models
- Title(参考訳): Dispatch:拡散モデルを用いた物体検出における対向パッチの武装解除
- Authors: Jin Ma, Mohammed Aldeen, Christopher Salas, Feng Luo, Mashrur Chowdhury, Mert Pesé, Long Cheng,
- Abstract要約: 最先端のオブジェクト検出器はいまだに敵のパッチ攻撃に弱い。
オブジェクト検出のための最初の拡散型防御フレームワークであるDisdisを紹介する。
DISは、隠蔽攻撃と攻撃生成の両方において、最先端の防御を一貫して上回る。
- 参考スコア(独自算出の注目度): 8.800216228212824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection is fundamental to various real-world applications, such as security monitoring and surveillance video analysis. Despite their advancements, state-of-theart object detectors are still vulnerable to adversarial patch attacks, which can be easily applied to real-world objects to either conceal actual items or create non-existent ones, leading to severe consequences. Given the current diversity of adversarial patch attacks and potential unknown threats, an ideal defense method should be effective, generalizable, and robust against adaptive attacks. In this work, we introduce DISPATCH, the first diffusion-based defense framework for object detection. Unlike previous works that aim to "detect and remove" adversarial patches, DISPATCH adopts a "regenerate and rectify" strategy, leveraging generative models to disarm attack effects while preserving the integrity of the input image. Specifically, we utilize the in-distribution generative power of diffusion models to regenerate the entire image, aligning it with benign data. A rectification process is then employed to identify and replace adversarial regions with their regenerated benign counterparts. DISPATCH is attack-agnostic and requires no prior knowledge of the existing patches. Extensive experiments across multiple detectors and attacks demonstrate that DISPATCH consistently outperforms state-of-the-art defenses on both hiding attacks and creating attacks, achieving the best overall mAP.5 score of 89.3% on hiding attacks, and lowering the attack success rate to 24.8% on untargeted creating attacks. Moreover, it maintains strong robustness against adaptive attacks, making it a practical and reliable defense for object detection systems.
- Abstract(参考訳): オブジェクト検出は、セキュリティ監視や監視ビデオ分析など、さまざまな現実世界のアプリケーションに不可欠である。
その進歩にもかかわらず、最先端の物体検出器はいまだに敵のパッチ攻撃に対して脆弱であり、現実の物体に容易に適用でき、実際のアイテムを隠蔽したり、存在しないものを生成できるため、深刻な結果をもたらす。
現在の敵パッチ攻撃の多様性と潜在的な未知の脅威を考えると、理想的な防御方法は適応攻撃に対して効果的で、一般化可能で、堅牢であるべきである。
本研究では,オブジェクト検出のための拡散型ディフェンスフレームワークであるdisPATCHを紹介する。
敵パッチの「検出と削除」を目的とした以前の研究とは異なり、disPATCHは「再生と修正」戦略を採用し、生成モデルを利用して入力画像の完全性を維持しながら攻撃効果を解除する。
具体的には,拡散モデルの分布内生成力を利用して画像全体を再生し,良質なデータと整列させる。
次に、反対側の領域を再生した良性領域で識別し、置換するために、補正プロセスが使用される。
DISPATCHはアタック非依存であり、既存のパッチに関する事前の知識を必要としない。
複数の検出器と攻撃にわたる大規模な実験により、DisspATCHは隠蔽攻撃と攻撃生成の両方において最先端の防御を一貫して上回り、隠蔽攻撃では89.3%のmAP.5スコアを達成し、未標的攻撃では24.8%まで攻撃成功率を下げた。
さらに、適応攻撃に対する強い堅牢性を維持しており、オブジェクト検出システムの実用的で信頼性の高い防御となる。
関連論文リスト
- Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis [3.795071937009966]
アドリアックは機械学習(ML)モデルの整合性を損なう可能性がある。
本稿では,逆ノイズインスタンスが生成されているかどうかを検出するフレームワークを提案する。
適応攻撃を含む8つの最先端攻撃に対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:25:12Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - DIFFender: Diffusion-Based Adversarial Defense against Patch Attacks [34.86098237949214]
敵対的攻撃、特にパッチ攻撃は、ディープラーニングモデルの堅牢性と信頼性に重大な脅威をもたらす。
本稿では,テキスト誘導拡散モデルを用いてパッチ攻撃に対処する新しい防御フレームワークであるDIFFenderを紹介する。
DIFFenderは、パッチのローカライゼーションと復元の2つのタスクを単一の拡散モデルフレームワークに統合する。
論文 参考訳(メタデータ) (2023-06-15T13:33:27Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Random-patch based Defense Strategy Against Physical Attacks for Face
Recognition Systems [3.6202815454709536]
顔認識システム(FRS)の物理的攻撃を頑健に検出するランダムパッチ型防御戦略を提案する。
本手法は実世界の顔認識システムに容易に適用でき,検出性能を高めるために他の防御方法にも拡張できる。
論文 参考訳(メタデータ) (2023-04-16T16:11:56Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。