論文の概要: Breaking Dataset Boundaries: Class-Agnostic Targeted Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2505.20782v1
- Date: Tue, 27 May 2025 06:39:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.453085
- Title: Breaking Dataset Boundaries: Class-Agnostic Targeted Adversarial Attacks
- Title(参考訳): データセット境界を破る - クラスに依存しない敵攻撃
- Authors: Taïga Gonçalves, Tomo Miyazaki, Shinichiro Omachi,
- Abstract要約: クロスドメイン多目的攻撃(CD-MTA)
訓練中に見えないものを含め、画像分類器を任意の対象クラスに向けて誤誘導する逆例を生成する方法。
クラスレベルの監視をイメージベースの条件入力に置き換え、特徴空間内の摂動とターゲットのイメージを整合させるクラスに依存しない損失を導入する。
- 参考スコア(独自算出の注目度): 3.2771631221674333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Cross-Domain Multi-Targeted Attack (CD-MTA), a method for generating adversarial examples that mislead image classifiers toward any target class, including those not seen during training. Traditional targeted attacks are limited to one class per model, requiring expensive retraining for each target. Multi-targeted attacks address this by introducing a perturbation generator with a conditional input to specify the target class. However, existing methods are constrained to classes observed during training and require access to the black-box model's training data--introducing a form of data leakage that undermines realistic evaluation in practical black-box scenarios. We identify overreliance on class embeddings as a key limitation, leading to overfitting and poor generalization to unseen classes. To address this, CD-MTA replaces class-level supervision with an image-based conditional input and introduces class-agnostic losses that align the perturbed and target images in the feature space. This design removes dependence on class semantics, thereby enabling generalization to unseen classes across datasets. Experiments on ImageNet and seven other datasets show that CD-MTA outperforms prior multi-targeted attacks in both standard and cross-domain settings--without accessing the black-box model's training data.
- Abstract(参考訳): 本稿では,訓練中に見えないものを含む任意のクラスに対して,画像分類器を誤誘導する逆例を生成する手法であるクロスドメイン・マルチターゲットアタック(CD-MTA)を提案する。
従来の標的攻撃は1モデルごとに1クラスに制限されており、目標ごとに高価な再訓練が必要である。
マルチターゲット攻撃は、ターゲットクラスを指定する条件入力を備えた摂動発生器を導入することでこの問題に対処する。
しかし、既存の手法はトレーニング中に観察されたクラスに制約され、ブラックボックスモデルのトレーニングデータへのアクセスを必要とする。
クラス埋め込みに対する過度な依存は、重要限度として認識され、過度に適合し、目に見えないクラスへの一般化が不十分になる。
これを解決するために、CD-MTAは、クラスレベルの監視をイメージベースの条件入力に置き換え、特徴空間内の摂動とターゲットの画像を整列するクラスに依存しない損失を導入する。
この設計では、クラスセマンティクスへの依存を排除し、データセットをまたいだクラスを一般化することができる。
ImageNetや他の7つのデータセットの実験によると、CD-MTAは、ブラックボックスモデルのトレーニングデータにアクセスせずに、標準設定とクロスドメイン設定の両方で、事前のマルチターゲットアタックよりも優れていた。
関連論文リスト
- Benchmarking Unified Face Attack Detection via Hierarchical Prompt Tuning [58.16354555208417]
提示攻撃検出と顔偽造検出は、それぞれ物理メディアベースの提示攻撃とデジタル編集ベースのDeepFakeから顔データを保護するように設計されている。
これら2つのモデルの個別のトレーニングは、未知の攻撃やデプロイ環境への脆弱性を生じさせる。
本稿では,視覚言語モデルに基づく階層型プロンプトチューニングフレームワーク (HiPTune) を提案する。
論文 参考訳(メタデータ) (2025-05-19T16:35:45Z) - Learning to Learn Transferable Generative Attack for Person Re-Identification [17.26567195924685]
既存の攻撃は、異なるドメインでトレーニングされたモデルを摂動するクロステスト能力を無視して、クロスデータセットとクロスモデル転送可能性のみを考慮する。
実世界のre-idモデルのロバスト性を調べるために,MTGA法を提案する。
我々のMTGAは平均mAP低下率でSOTA法を21.5%、平均11.3%で上回っている。
論文 参考訳(メタデータ) (2024-09-06T11:57:17Z) - CLIP-Guided Generative Networks for Transferable Targeted Adversarial Attacks [52.29186466633699]
トランスファー可能な敵攻撃は、ブラックボックスのシナリオで敵が特定した予測を出力するモデルを誤解させることを目的としている。
textitsingle-target 生成攻撃は、高い転送可能な摂動を生成するために、各ターゲットクラスのジェネレータを訓練する。
textbfCLIP-guided textbfGenerative textbfNetwork with textbfCross-attention module (CGNC) to enhance multi-target attack。
論文 参考訳(メタデータ) (2024-07-14T12:30:32Z) - Unstoppable Attack: Label-Only Model Inversion via Conditional Diffusion
Model [14.834360664780709]
モデルアタック(MIA)は、深層学習モデルの到達不可能なトレーニングセットからプライベートデータを復元することを目的としている。
そこで本研究では,条件拡散モデル(CDM)を応用したMIA手法を開発し,対象ラベル下でのサンプルの回収を行う。
実験結果から,本手法は従来手法よりも高い精度で類似したサンプルをターゲットラベルに生成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-17T12:14:24Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - Can Targeted Adversarial Examples Transfer When the Source and Target
Models Have No Label Space Overlap? [36.96777303738315]
我々は,攻撃者のソースモデルとターゲットブラックボックスモデルがラベルスペースとトレーニングデータセットを持つ可能性がある環境に対して,ブラックボックス転送に基づく標的攻撃を設計する。
我々の方法論は、ホワイトボックスとブラックボックスラベルセットの間のクラス対応行列の構築から始まります。
我々は,我々の転送攻撃が,クエリベースの手法と統合された場合,強力な敵前処理として機能することを示す。
論文 参考訳(メタデータ) (2021-03-17T21:21:44Z) - Towards Class-Oriented Poisoning Attacks Against Neural Networks [1.14219428942199]
機械学習システムに対する攻撃は、トレーニングデータセットに悪意のあるサンプルを意図的に注入することで、モデルのパフォーマンスを損なう。
そこで本研究では, 破損したモデルに対して, 2つの特定の予測を強制的に行うクラス指向中毒攻撃を提案する。
逆効果の最大化と、有毒なデータ生成の計算複雑性の低減を図るため、勾配に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T19:27:37Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。