論文の概要: Seeing Isn't Believing: Context-Aware Adversarial Patch Synthesis via Conditional GAN
- arxiv url: http://arxiv.org/abs/2509.22836v1
- Date: Fri, 26 Sep 2025 18:39:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.901585
- Title: Seeing Isn't Believing: Context-Aware Adversarial Patch Synthesis via Conditional GAN
- Title(参考訳): 信じないものを見る:条件付きGANによる文脈認識型逆パッチ合成
- Authors: Roie Kazoom, Alon Goldberg, Hodaya Cohen, Ofer Hadar,
- Abstract要約: 完全制御可能な敵パッチ生成のための新しいフレームワークを提案する。
攻撃者は、入力画像xとターゲットクラスyターゲットの両方を自由に選択でき、したがって正確な誤分類結果を決定する。
提案手法は,生成的U-Net設計とGrad-CAM誘導パッチ配置を組み合わせることで,セマンティック・アウェア・ローカライゼーションを実現する。
- 参考スコア(独自算出の注目度): 2.02409171087469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial patch attacks pose a severe threat to deep neural networks, yet most existing approaches rely on unrealistic white-box assumptions, untargeted objectives, or produce visually conspicuous patches that limit real-world applicability. In this work, we introduce a novel framework for fully controllable adversarial patch generation, where the attacker can freely choose both the input image x and the target class y target, thereby dictating the exact misclassification outcome. Our method combines a generative U-Net design with Grad-CAM-guided patch placement, enabling semantic-aware localization that maximizes attack effectiveness while preserving visual realism. Extensive experiments across convolutional networks (DenseNet-121, ResNet-50) and vision transformers (ViT-B/16, Swin-B/16, among others) demonstrate that our approach achieves state-of-the-art performance across all settings, with attack success rates (ASR) and target-class success (TCS) consistently exceeding 99%. Importantly, we show that our method not only outperforms prior white-box attacks and untargeted baselines, but also surpasses existing non-realistic approaches that produce detectable artifacts. By simultaneously ensuring realism, targeted control, and black-box applicability-the three most challenging dimensions of patch-based attacks-our framework establishes a new benchmark for adversarial robustness research, bridging the gap between theoretical attack strength and practical stealthiness.
- Abstract(参考訳): 敵対的パッチ攻撃は、ディープニューラルネットワークに深刻な脅威をもたらすが、既存のアプローチのほとんどは、非現実的なホワイトボックスの仮定、未ターゲットの目的、または現実の応用性を制限する視覚的に目立ったパッチを生成することに依存している。
本研究では,攻撃者が入力画像 x と対象クラス y ターゲットの両方を自由に選択し,正確な誤分類結果を決定することができる,完全制御可能な対向パッチ生成のための新しいフレームワークを提案する。
本手法は,生成的U-Net設計とGrad-CAM誘導パッチ配置を組み合わせることで,視覚リアリズムを保ちながら攻撃効率を最大化するセマンティック・アウェア・ローカライゼーションを実現する。
畳み込みネットワーク(DenseNet-121,ResNet-50)とビジョントランスフォーマー(ViT-B/16,Swin-B/16など)の多種多様な実験により,攻撃成功率(ASR)と目標クラス成功率(TCS)が99%以上であることを示す。
重要なことは,本手法が従来のホワイトボックス攻撃や標的外ベースラインを上回るだけでなく,検出可能なアーティファクトを生成する既存の非現実的アプローチを超越していることである。
パッチベースのアタックアワーフレームワークの最も難しい3つの次元である、現実性、ターゲット制御、ブラックボックス適用性を同時に確保することで、敵のロバストネス研究のための新しいベンチマークを確立し、理論的なアタック強度と実用的なステルスネスのギャップを埋める。
関連論文リスト
- Real-World Transferable Adversarial Attack on Face-Recognition Systems [45.6754000057234]
我々は、厳密なブラックボックス設定の下で、普遍的で物理的に転送可能な対向パッチを生成する新しい方法であるGaP(Gaussian Patch)を紹介する。
私たちの研究は実用的で深刻な脆弱性を強調しており、堅牢で移動可能な攻撃はターゲットシステムに関する限られた知識で実現可能であることを証明しています。
論文 参考訳(メタデータ) (2025-09-27T09:09:06Z) - DOPA: Stealthy and Generalizable Backdoor Attacks from a Single Client under Challenging Federated Constraints [2.139012072214621]
フェデレーテッド・ラーニング(FL)は、プライバシー保護のための協調トレーニングにますます採用されているが、その分散した性質は、バックドア攻撃の影響を受けやすい。
しかし、既存の攻撃方法は、しばしば理想化された仮定に依存し、現実の制約の下で有効に保たない。
異種ローカルトレーニングのダイナミクスをシミュレートし,多種多様な最適化トラジェクトリ間のコンセンサスを求める新しいフレームワークであるDOPAを提案する。
論文 参考訳(メタデータ) (2025-08-20T08:39:12Z) - Pixel-Optimization-Free Patch Attack on Stereo Depth Estimation [37.97727884936262]
画素最適化攻撃を4つのステレオマッチングステージに拡張する統合フレームワークを構築した。
我々は,最初のピクセル最適化フリー攻撃であるPatchHunterを提案する。
KITTIでは、PatchHunterは、有効性とブラックボックス転送性の両方においてピクセルレベルの攻撃より優れている。
論文 参考訳(メタデータ) (2025-06-21T08:23:02Z) - AdvART: Adversarial Art for Camouflaged Object Detection Attacks [7.7889972735711925]
本稿では,自然主義的かつ不明瞭な敵パッチを生成するための新しいアプローチを提案する。
本手法は,パッチ内の画素値を直接操作することで,高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタルワールドとエッジのスマートカメラでそれぞれ91.19%と72%の優れた成功率を達成する。
論文 参考訳(メタデータ) (2023-03-03T06:28:05Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - TnT Attacks! Universal Naturalistic Adversarial Patches Against Deep
Neural Network Systems [15.982408142401072]
ディープニューラルネットワークは、敵対的な入力からの攻撃に対して脆弱であり、最近では、トロイの木馬がモデルの判断を誤解したりハイジャックしたりする。
TnTは、シーン内でTnTでキャプチャされた任意の入力画像は、ネットワーク(未攻撃)を誤認する。
既存の最先端手法よりも高い攻撃成功率を達成するパッチを作成するための攻撃の一般化を示す。
論文 参考訳(メタデータ) (2021-11-19T01:35:10Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。