論文の概要: Enhancing targeted transferability via feature space fine-tuning
- arxiv url: http://arxiv.org/abs/2401.02727v1
- Date: Fri, 5 Jan 2024 09:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:43:35.930543
- Title: Enhancing targeted transferability via feature space fine-tuning
- Title(参考訳): 特徴空間の微調整による移動性の向上
- Authors: Hui Zeng, Biwei Chen, and Anjie Peng
- Abstract要約: アドリラルな例(AE)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性のために、広く研究されている。
本稿では,特徴空間内のAEを微調整して未知のモデル間で転送可能にする手法を提案する。
結果は、微調整を数回行するだけで、ターゲットの転送可能性に関して非自明かつ普遍的に既存の攻撃を加速できることを示している。
- 参考スコア(独自算出の注目度): 21.131915084053894
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial examples (AEs) have been extensively studied due to their
potential for privacy protection and inspiring robust neural networks. However,
making a targeted AE transferable across unknown models remains challenging. In
this paper, to alleviate the overfitting dilemma common in an AE crafted by
existing simple iterative attacks, we propose fine-tuning it in the feature
space. Specifically, starting with an AE generated by a baseline attack, we
encourage the features that contribute to the target class and discourage the
features that contribute to the original class in a middle layer of the source
model. Extensive experiments demonstrate that only a few iterations of
fine-tuning can boost existing attacks in terms of targeted transferability
nontrivially and universally. Our results also verify that the simple iterative
attacks can yield comparable or even better transferability than the
resource-intensive methods, which rely on training target-specific classifiers
or generators with additional data. The code is available at:
github.com/zengh5/TA_feature_FT.
- Abstract(参考訳): aes(adversarial examples)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性から、広く研究されている。
しかし、ターゲットのAEを未知のモデル間で転送することは依然として困難である。
本稿では,既存の単純な反復攻撃によるAEの過度なジレンマを軽減するため,特徴空間における微調整を提案する。
具体的には、ベースラインアタックによって生成されたAEから始め、ターゲットクラスにコントリビュートする機能を奨励し、ソースモデルの中間層で元のクラスにコントリビュートする機能を回避します。
大規模な実験では、微調整を数回行するだけで、標的の移動可能性に関して非自明かつ普遍的に既存の攻撃を加速させることができる。
また,単純な反復攻撃は,ターゲット固有の分類器やジェネレータを訓練し,追加データを付加することで,リソース集約型メソッドと同等あるいはそれ以上の転送性が得られることを検証した。
コードはgithub.com/zengh5/ta_feature_ftで入手できる。
関連論文リスト
- Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - GNP Attack: Transferable Adversarial Examples via Gradient Norm Penalty [14.82389560064876]
良好な転送性を持つ敵例(AE)は、多様なターゲットモデルに対する実用的なブラックボックス攻撃を可能にする。
GNP(Gradient Norm Penalty)を用いた新しいAE転送性向上手法を提案する。
11種類の最先端のディープラーニングモデルと6つの高度な防御手法を攻撃することにより、GNPは高い転送性を持つAEを生成するのに非常に有効であることを示す。
論文 参考訳(メタデータ) (2023-07-09T05:21:31Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Plug & Play Attacks: Towards Robust and Flexible Model Inversion Attacks [13.374754708543449]
モデルアタック(MIA)は、モデルが学習した知識を活用して、対象のインバージョントレーニングデータからクラスワイズ特性を反映した合成画像を作成することを目的としている。
従来の研究では、特定のターゲットモデルに合わせた画像の先行画像として、GAN(Generative Adversarial Network)を用いたジェネレーティブMIAを開発した。
ターゲットモデルと画像間の依存性を緩和し、訓練された単一のGANを使用することで、幅広いターゲットを攻撃できるプラグイン&プレイアタック(Plug & Play Attacks)を提案する。
論文 参考訳(メタデータ) (2022-01-28T15:25:50Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。