論文の概要: Adversarial Attention Perturbations for Large Object Detection Transformers
- arxiv url: http://arxiv.org/abs/2508.02987v1
- Date: Tue, 05 Aug 2025 01:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.729494
- Title: Adversarial Attention Perturbations for Large Object Detection Transformers
- Title(参考訳): 大規模物体検出用変圧器の逆アテンション摂動
- Authors: Zachary Yahn, Selim Furkan Tekin, Fatih Ilhan, Sihao Hu, Tiansheng Huang, Yichang Xu, Margaret Loper, Ling Liu,
- Abstract要約: 敵対的摂動は、ニューラルネットワークの脆弱性を露呈するための有用なツールである。
本稿では,物体検出変換器に対するAFOG攻撃について述べる。
- 参考スコア(独自算出の注目度): 6.845910470068847
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial perturbations are useful tools for exposing vulnerabilities in neural networks. Existing adversarial perturbation methods for object detection are either limited to attacking CNN-based detectors or weak against transformer-based detectors. This paper presents an Attention-Focused Offensive Gradient (AFOG) attack against object detection transformers. By design, AFOG is neural-architecture agnostic and effective for attacking both large transformer-based object detectors and conventional CNN-based detectors with a unified adversarial attention framework. This paper makes three original contributions. First, AFOG utilizes a learnable attention mechanism that focuses perturbations on vulnerable image regions in multi-box detection tasks, increasing performance over non-attention baselines by up to 30.6%. Second, AFOG's attack loss is formulated by integrating two types of feature loss through learnable attention updates with iterative injection of adversarial perturbations. Finally, AFOG is an efficient and stealthy adversarial perturbation method. It probes the weak spots of detection transformers by adding strategically generated and visually imperceptible perturbations which can cause well-trained object detection models to fail. Extensive experiments conducted with twelve large detection transformers on COCO demonstrate the efficacy of AFOG. Our empirical results also show that AFOG outperforms existing attacks on transformer-based and CNN-based object detectors by up to 83% with superior speed and imperceptibility. Code is available at https://github.com/zacharyyahn/AFOG.
- Abstract(参考訳): 敵対的摂動は、ニューラルネットワークの脆弱性を露呈するための有用なツールである。
既存の物体検出の対向摂動法は、CNNベースの検出器を攻撃するか、変圧器ベースの検出器に対して弱いかのどちらかに限られる。
本稿では,物体検出変換器に対するAFOG攻撃について述べる。
設計上、AFOGはニューラルネットワークに依存しず、大きなトランスフォーマーベースの物体検出器と従来のCNNベースの検出器の両方を攻撃するのに効果的である。
本稿は3つのオリジナルコントリビューションについて述べる。
まず、AFOGは、マルチボックス検出タスクにおける脆弱な画像領域に摂動を集中させる学習可能なアテンションメカニズムを使用し、非アテンションベースラインのパフォーマンスを最大30.6%向上させる。
第二に、AFOGの攻撃損失は、学習可能な注意更新と敵の摂動の反復注入により、2種類の特徴損失を統合することによって定式化される。
最後に、AFOGは効率的でステルス的な対向摂動法である。
戦略的に生成され、視覚的に知覚できない摂動を加えることで、検出トランスフォーマーの弱点を探索し、十分に訓練された物体検出モデルが失敗する可能性がある。
COCO上の12個の大きな検出トランスを用いて行った大規模な実験は、AFOGの有効性を実証した。
実験の結果、AFOGはトランスフォーマーベースおよびCNNベースのオブジェクト検出器に対する既存の攻撃を最大83%上回り、より高速で非受容性が高いことがわかった。
コードはhttps://github.com/zacharyyahn/AFOG.comで入手できる。
関連論文リスト
- Evaluating the Adversarial Robustness of Detection Transformers [4.3012765978447565]
物体検出変換器(DETR)の進歩にもかかわらず、敵の攻撃に対する堅牢性は未解明のままである。
本稿では,White-box と Black-box の両攻撃下での DETR モデルとその変種を包括的に評価する。
解析の結果, DETR 変種間のネットワーク内転送性は高いが, CNN モデルに対するネットワーク間転送性は限定的であることがわかった。
論文 参考訳(メタデータ) (2024-12-25T00:31:10Z) - Take Fake as Real: Realistic-like Robust Black-box Adversarial Attack to Evade AIGC Detection [4.269334070603315]
本稿では,後処理の融合最適化を用いた現実的なロバストブラックボックス攻撃(R$2$BA)を提案する。
R$2$BAは優れた抗検出性能,可視性,GANおよび拡散型症例の強い堅牢性を示す。
論文 参考訳(メタデータ) (2024-12-09T18:16:50Z) - Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - Detector Collapse: Physical-World Backdooring Object Detection to Catastrophic Overload or Blindness in Autonomous Driving [17.637155085620634]
ディテクター・コラプス(英: Detector Collapse、DC)は、オブジェクト検出用に設計された、新しいバックドア攻撃パラダイムである。
DCは、検出器を瞬時に無力化するように設計されている(つまり、検出器の性能が著しく損なわれ、サービス停止で終了する)。
我々は,自然物を利用した新たな中毒対策を導入し,実環境における実践的なバックドアとして機能することを可能にした。
論文 参考訳(メタデータ) (2024-04-17T13:12:14Z) - Threatening Patch Attacks on Object Detection in Optical Remote Sensing
Images [55.09446477517365]
自然画像における物体検出における高度なパッチアタック(PA)は、ディープニューラルネットワークに基づく手法における大きな安全性の脆弱性を指摘した。
我々は,TPAと呼ばれる視覚的品質の低下を伴わない,より危険度の高いPAを提案する。
我々の知る限りでは、これがO-RSIにおけるオブジェクト検出におけるPAの研究の最初の試みであり、この研究が読者にこのトピックの研究に興味を持たせることを願っている。
論文 参考訳(メタデータ) (2023-02-13T02:35:49Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - An Extendable, Efficient and Effective Transformer-based Object Detector [95.06044204961009]
我々は、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
ViDTは、最近のSwin Transformerをスタンドアロンのオブジェクト検出器に拡張するために、再構成されたアテンションモジュールを導入した。
オブジェクト検出とインスタンスセグメンテーションのための共同タスク学習をサポートするために、ViDT+に拡張する。
論文 参考訳(メタデータ) (2022-04-17T09:27:45Z) - DA-DETR: Domain Adaptive Detection Transformer with Information Fusion [53.25930448542148]
DA-DETRは、ラベル付きソースドメインからラベルなしターゲットドメインへの効果的な転送のための情報融合を導入するドメイン適応型オブジェクト検出変換器である。
本稿では,CNN機能とトランスフォーマー機能を融合した新しいCNN-Transformer Blender(CTBlender)を提案する。
CTBlenderはTransformer機能を使用して、高レベルの意味情報と低レベルの空間情報が融合した複数のスケールでCNN機能を変調し、正確な物体識別と位置決めを行う。
論文 参考訳(メタデータ) (2021-03-31T13:55:56Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Transformer-Encoder Detector Module: Using Context to Improve Robustness
to Adversarial Attacks on Object Detection [12.521662223741673]
本稿では、オブジェクトインスタンスのラベル付けを改善するために、オブジェクト検出器に適用可能な新しいコンテキストモジュールを提案する。
提案モデルは,ベースラインのFaster-RCNN検出器と比較して,mAP,F1スコア,AUC平均スコアを最大13%向上させる。
論文 参考訳(メタデータ) (2020-11-13T15:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。