論文の概要: Rethinking Target Label Conditioning in Adversarial Attacks: A 2D Tensor-Guided Generative Approach
- arxiv url: http://arxiv.org/abs/2504.14137v1
- Date: Sat, 19 Apr 2025 02:08:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 04:50:45.931055
- Title: Rethinking Target Label Conditioning in Adversarial Attacks: A 2D Tensor-Guided Generative Approach
- Title(参考訳): 敵攻撃における目標ラベル条件の再考:2次元テンソルガイドによる生成アプローチ
- Authors: Hangyu Liu, Bo Peng, Pengxiang Ding, Donglin Wang,
- Abstract要約: マルチターゲット対人攻撃は、複数のターゲットクラスに対して同時に対人画像を生成する能力により、大きな注目を集めている。
このギャップに対処するために、まず、標的攻撃の伝達可能性に影響を及ぼす意味的特徴品質と量が重要な要因であることを特定し、検証する。
本稿では,拡散モデルの強力な生成能力を利用して,対象ラベルを2次元意味テンソルに符号化する2D-TGAFフレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.259289475583522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to single-target adversarial attacks, multi-target attacks have garnered significant attention due to their ability to generate adversarial images for multiple target classes simultaneously. Existing generative approaches for multi-target attacks mainly analyze the effect of the use of target labels on noise generation from a theoretical perspective, lacking practical validation and comprehensive summarization. To address this gap, we first identify and validate that the semantic feature quality and quantity are critical factors affecting the transferability of targeted attacks: 1) Feature quality refers to the structural and detailed completeness of the implanted target features, as deficiencies may result in the loss of key discriminative information; 2) Feature quantity refers to the spatial sufficiency of the implanted target features, as inadequacy limits the victim model's attention to this feature. Based on these findings, we propose the 2D Tensor-Guided Adversarial Fusion (2D-TGAF) framework, which leverages the powerful generative capabilities of diffusion models to encode target labels into two-dimensional semantic tensors for guiding adversarial noise generation. Additionally, we design a novel masking strategy tailored for the training process, ensuring that parts of the generated noise retain complete semantic information about the target class. Extensive experiments on the standard ImageNet dataset demonstrate that 2D-TGAF consistently surpasses state-of-the-art methods in attack success rates, both on normally trained models and across various defense mechanisms.
- Abstract(参考訳): シングルターゲットの対人攻撃と比較して、複数ターゲットの対人攻撃は、複数のターゲットクラスの対人画像を同時に生成する能力により、大きな注目を集めている。
既存のマルチターゲット攻撃に対する生成的アプローチは、理論的観点からターゲットラベルの使用がノイズ発生に与える影響を主に分析し、実用的検証と包括的要約を欠いている。
このギャップに対処するために、まずセマンティックな特徴の質と量が標的攻撃の伝達可能性に影響を及ぼす重要な要因であることを識別し、検証する。
1) 特徴品質とは,重要な識別情報が失われるおそれがあるため,移植対象の特徴の構造的かつ詳細な完全性を指す。
2) 特徴量とは, 埋設対象特徴の空間的充足性を指す。
これらの知見に基づいて,拡散モデルの強力な生成能力を利用して,2次元のセマンティックテンソルにターゲットラベルを符号化し,逆方向の雑音発生を誘導する2Dテンソルガイド型逆数融合(2D-TGAF)フレームワークを提案する。
さらに、トレーニングプロセスに適した新しいマスキング戦略を設計し、生成したノイズの一部が対象クラスに関する完全な意味情報を保持することを保証する。
標準的なImageNetデータセットに対する大規模な実験により、2D-TGAFは、通常訓練されたモデルと様々な防御メカニズムの両方において、攻撃成功率における最先端の手法を一貫して上回っていることが示された。
関連論文リスト
- AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2025-03-09T09:24:24Z) - Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2024-11-21T15:50:59Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - GAP++: Learning to generate target-conditioned adversarial examples [28.894143619182426]
逆の例は摂動入力であり、機械学習モデルに深刻な脅威をもたらす可能性がある。
本稿では、入力画像とターゲットラベルの両方に依存する目標条件の摂動を推論する、より汎用的なフレームワークを提案する。
本手法は,単一目標攻撃モデルで優れた性能を達成し,摂動ノルムを小さくして高い騙し率を得る。
論文 参考訳(メタデータ) (2020-06-09T07:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。