論文の概要: CAPAA: Classifier-Agnostic Projector-Based Adversarial Attack
- arxiv url: http://arxiv.org/abs/2506.00978v2
- Date: Mon, 09 Jun 2025 15:25:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 14:13:04.104416
- Title: CAPAA: Classifier-Agnostic Projector-Based Adversarial Attack
- Title(参考訳): CAPAA:分類器に依存しないプロジェクターによる敵攻撃
- Authors: Zhan Li, Mingyu Zhao, Xin Dong, Haibin Ling, Bingyao Huang,
- Abstract要約: プロジェクタをベースとした対向攻撃は、深い画像分類を騙すために、シーンに光パターンを投影することを目的としている。
プライバシー保護やより堅牢な分類器の開発に応用できる可能性がある。
これらの問題に対処するために、重み付け型プロジェクタベースアドリアアタック(CAPAA)を導入する。
CAPAAは、既存のベースラインよりも高い攻撃成功率と高いステルスネスを達成する。
- 参考スコア(独自算出の注目度): 53.97547369215603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Projector-based adversarial attack aims to project carefully designed light patterns (i.e., adversarial projections) onto scenes to deceive deep image classifiers. It has potential applications in privacy protection and the development of more robust classifiers. However, existing approaches primarily focus on individual classifiers and fixed camera poses, often neglecting the complexities of multi-classifier systems and scenarios with varying camera poses. This limitation reduces their effectiveness when introducing new classifiers or camera poses. In this paper, we introduce Classifier-Agnostic Projector-Based Adversarial Attack (CAPAA) to address these issues. First, we develop a novel classifier-agnostic adversarial loss and optimization framework that aggregates adversarial and stealthiness loss gradients from multiple classifiers. Then, we propose an attention-based gradient weighting mechanism that concentrates perturbations on regions of high classification activation, thereby improving the robustness of adversarial projections when applied to scenes with varying camera poses. Our extensive experimental evaluations demonstrate that CAPAA achieves both a higher attack success rate and greater stealthiness compared to existing baselines. Codes are available at: https://github.com/ZhanLiQxQ/CAPAA.
- Abstract(参考訳): プロジェクタベースの逆方向攻撃は、慎重に設計された光パターン(すなわち、逆方向の投影)をシーンに投影し、ディープイメージ分類器を欺くことを目的としている。
プライバシー保護やより堅牢な分類器の開発に応用できる可能性がある。
しかし、既存のアプローチは、主に個別の分類器と固定カメラのポーズに焦点を当てており、しばしば多分類器システムの複雑さや様々なカメラのポーズを持つシナリオを無視している。
この制限により、新しい分類器やカメラのポーズを導入する際の効率が低下する。
本稿では,これらの問題に対処するため,分類型プロジェクタベースアタック(CAPAA)を提案する。
まず,複数の分類器から,敵対的および盗難的損失勾配を集約する,新たな分類器非依存の逆損失と最適化フレームワークを開発する。
そこで本研究では,高分類活性化領域に摂動を集中させることで,カメラポーズの異なるシーンに適用した場合の対向射影の頑健さを向上する,注意に基づく勾配重み付け機構を提案する。
実験により,CAPAAは既存のベースラインと比較して高い攻撃成功率と高いステルスネスを達成できることが示された。
コードは、https://github.com/ZhanLiQxQ/CAPAA.comで入手できる。
関連論文リスト
- Rethinking Target Label Conditioning in Adversarial Attacks: A 2D Tensor-Guided Generative Approach [26.259289475583522]
マルチターゲット対人攻撃は、複数のターゲットクラスに対して同時に対人画像を生成する能力により、大きな注目を集めている。
このギャップに対処するために、まず、標的攻撃の伝達可能性に影響を及ぼす意味的特徴品質と量が重要な要因であることを特定し、検証する。
本稿では,拡散モデルの強力な生成能力を利用して,対象ラベルを2次元意味テンソルに符号化する2D-TGAFフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-19T02:08:48Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - An Evasion Attack against Stacked Capsule Autoencoder [0.0]
スタックドカプセルオートエンコーダ(SCAE)に対する回避攻撃を提案する。
画像分類実験を用いて攻撃を評価した結果,攻撃は高い成功率とステルスネスを達成できることが示された。
論文 参考訳(メタデータ) (2020-10-14T16:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。