論文の概要: Semantic Structure-Aware Generative Attacks for Enhanced Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2506.18248v1
- Date: Mon, 23 Jun 2025 02:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.825624
- Title: Semantic Structure-Aware Generative Attacks for Enhanced Adversarial Transferability
- Title(参考訳): セマンティック構造認識による対向移動性向上のための生成攻撃
- Authors: Jongoh Jeong, Hunmin Yang, Jaeseok Jeong, Kuk-Jin Yoon,
- Abstract要約: 生成的敵攻撃は、ホワイトボックス・サロゲートモデルで摂動発生器を訓練し、工芸品の摂動を見えないブラックボックスの犠牲者モデルに適用する。
これまで、既存の研究は意味情報の保存と活用のために生成モデルの表現能力を完全に活用していなかった。
本稿では,時間的スムーズな特徴参照として機能する意味的構造認識型攻撃フレームワークを提案する。
- 参考スコア(独自算出の注目度): 40.91806806296226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative adversarial attacks train a perturbation generator on a white-box surrogate model and subsequently apply the crafted perturbations to unseen black-box victim models. In contrast to iterative attacks, these methods deliver superior inference-time efficiency, scalability, and transferability; however, up until now, existing studies have not fully exploited the representational capacity of generative models to preserve and harness semantic information. Specifically, the intermediate activations of the generator encode rich semantic features--object boundaries and coarse shapes--that remain under-exploited, thereby limiting the alignment of perturbations with object-salient regions which are critical for adversarial transferability. To remedy this, we introduce a semantic structure-aware attack framework based on the Mean Teacher, which serves as a temporally smoothed feature reference. With this smoothed reference, we further direct semantic consistency between the early-layer activations in the student and those of the semantically rich teacher by feature distillation. By anchoring perturbation synthesis to the semantically salient early intermediate blocks within the generator based on empirical findings, our method guides progressive adversarial perturbation on regions that substantially enhance adversarial transferability. We conduct extensive experiments over diverse models, domains and tasks to demonstrate consistent improvements relative to state-of-the-art generative attacks, comprehensively evaluated using conventional metrics and our newly proposed Accidental Correction Rate (ACR).
- Abstract(参考訳): 生成的敵攻撃は、ホワイトボックス・サロゲートモデルで摂動発生器を訓練し、その後、見知らぬブラックボックスの犠牲者モデルに適用する。
反復攻撃とは対照的に、これらの手法は推論時の効率、スケーラビリティ、転送可能性に優れるが、これまでは、意味情報を保存し活用するために生成モデルの表現能力を十分に活用してこなかった。
具体的には、ジェネレータの中間活性化はリッチなセマンティックな特徴(オブジェクトの境界と粗い形状)を符号化する。
そこで本稿では,時間的スムーズな特徴参照として機能する意味的構造認識型攻撃フレームワークを提案する。
このスムーズな参照により、学生の早期層活性化と特徴蒸留による意味豊かな教師とのセマンティック一貫性をさらに深めていく。
提案手法は, 経験的知見に基づいて, ジェネレータ内の有意な初期中間ブロックに摂動合成を固定することにより, 対向移動性を大幅に向上させる領域において, 進行する対向摂動を誘導する。
我々は,従来手法と新たに提案したアクシデンタル補正率(ACR)を用いて,多種多様なモデル,ドメイン,タスクに対する広範な実験を行い,最先端のジェネレーター攻撃に対する一貫した改善を実証した。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Boosting Imperceptibility of Stable Diffusion-based Adversarial Examples Generation with Momentum [13.305800254250789]
我々は,SD-MIAE(SD-MIAE)という新しいフレームワークを提案する。
視覚的不受容性を保ち、元のクラスラベルとのセマンティックな類似性を保ちながら、ニューラルネットワーク分類器を効果的に誤解させることができる敵の例を生成する。
実験の結果,SD-MIAEは79%の誤分類率を示し,最先端法よりも35%向上した。
論文 参考訳(メタデータ) (2024-10-17T01:22:11Z) - Rethinking Weak-to-Strong Augmentation in Source-Free Domain Adaptive Object Detection [38.596886094105216]
Source-Free Domain Adaptive Object Detection (SFOD) は、検出器(ソースドメインで事前訓練された)を新しい未実装のターゲットドメインに転送することを目的としている。
本稿では,Wak-to-Strong Contrastive Learning (WSCoL) アプローチを紹介する。
論文 参考訳(メタデータ) (2024-10-07T23:32:06Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Adversarial Counterfactual Visual Explanations [0.7366405857677227]
本稿では,敵攻撃を意味論的に意味のある摂動に変換するエレガントな手法を提案する。
提案手法は,拡散確率モデルが高周波および分布外摂動を回避するための優れた正則化器であることを仮定する。
論文 参考訳(メタデータ) (2023-03-17T13:34:38Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。