論文の概要: Incorporating Locality of Images to Generate Targeted Transferable
Adversarial Examples
- arxiv url: http://arxiv.org/abs/2209.03716v1
- Date: Thu, 8 Sep 2022 11:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:07:20.451263
- Title: Incorporating Locality of Images to Generate Targeted Transferable
Adversarial Examples
- Title(参考訳): 画像の局所性を考慮した移動可能逆例生成
- Authors: Zhipeng Wei, Jingjing Chen, Zuxuan Wu, Yu-Gang Jiang
- Abstract要約: そこで我々は,画像の局所性(Locality of Images, LI)攻撃を標的転送性を改善するために提案する。
LIは、逆方向の原画像とランダムにトリミングされた画像の中間特徴との特徴的類似性損失を導入する。
実験により、LIは転送ベースのターゲットアタックに対して高い成功率を得ることができることが示された。
- 参考スコア(独自算出の注目度): 88.6081640779354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite that leveraging the transferability of adversarial examples can
attain a fairly high attack success rate for non-targeted attacks, it does not
work well in targeted attacks since the gradient directions from a source image
to a targeted class are usually different in different DNNs. To increase the
transferability of target attacks, recent studies make efforts in aligning the
feature of the generated adversarial example with the feature distributions of
the targeted class learned from an auxiliary network or a generative
adversarial network. However, these works assume that the training dataset is
available and require a lot of time to train networks, which makes it hard to
apply to real-world scenarios. In this paper, we revisit adversarial examples
with targeted transferability from the perspective of universality and find
that highly universal adversarial perturbations tend to be more transferable.
Based on this observation, we propose the Locality of Images (LI) attack to
improve targeted transferability. Specifically, instead of using the
classification loss only, LI introduces a feature similarity loss between
intermediate features from adversarial perturbed original images and randomly
cropped images, which makes the features from adversarial perturbations to be
more dominant than that of benign images, hence improving targeted
transferability. Through incorporating locality of images into optimizing
perturbations, the LI attack emphasizes that targeted perturbations should be
universal to diverse input patterns, even local image patches. Extensive
experiments demonstrate that LI can achieve high success rates for
transfer-based targeted attacks. On attacking the ImageNet-compatible dataset,
LI yields an improvement of 12\% compared with existing state-of-the-art
methods.
- Abstract(参考訳): 敵の例の転送可能性を活用することで、標的でない攻撃に対してかなり高い攻撃成功率が得られるにもかかわらず、ソースイメージからターゲットクラスへの勾配方向が通常異なるdnnで異なるため、標的攻撃ではうまく機能しない。
標的攻撃の伝達性を高めるため,近年の研究では,生成した攻撃例の特徴と,補助ネットワークや生成的攻撃ネットワークから学習された攻撃対象クラスの特徴分布との整合に尽力している。
しかし、これらの研究はトレーニングデータセットが利用可能であり、ネットワークのトレーニングに多くの時間を要すると仮定しており、現実のシナリオに適用するのは困難である。
本稿では, 普遍性の観点から, 対象移動可能性のある逆例を再検討し, 高度に普遍的な逆摂動がより移動可能であることを見いだす。
そこで本研究では,画像の局所性(Locality of Images, LI)攻撃による移動性向上を提案する。
特に、分類損失のみを使用する代わりに、liは、逆摂動原画像からの中間的特徴とランダムに切り抜かれた画像との間の特徴的類似性損失を導入することにより、逆摂動の特徴が良性画像のそれよりも支配的になり、目的の転送性が向上する。
画像の局所性を最適な摂動に組み込むことで、LI攻撃は標的摂動が局所的なイメージパッチのような多様な入力パターンに普遍的であるべきであることを強調している。
広範な実験により、liはトランスファーベースの標的攻撃で高い成功率を達成できることが示されている。
imagenet互換のデータセットを攻撃すると、liは既存のstate-of-the-artメソッドと比較して12\%改善する。
関連論文リスト
- Enhancing Transferability of Targeted Adversarial Examples: A Self-Universal Perspective [13.557972227440832]
ブラックボックスディープニューラルネットワーク(DNN)に対するトランスファーベースの敵攻撃は、未ターゲットの攻撃よりもはるかに難しいことが証明されている。
生成方法である現在のSOTAの印象的な転送性は、大量の追加データを必要とするコストと、ターゲットラベルごとに時間のかかるトレーニングが伴う。
私たちは、この目標を追求する際の入力変換の大きな可能性を明らかにする、自己普遍的な視点を提供します。
論文 参考訳(メタデータ) (2024-07-22T14:51:28Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection [50.29565896287595]
サーカズム検出のための共通データセットを活用するために,転送学習を適用する。
異なる損失が互いに対応できる汎用的な潜時最適化戦略を提案します。
特に、isarcasmデータセットの以前の状態よりも10.02%の絶対性能向上を達成している。
論文 参考訳(メタデータ) (2021-04-19T13:07:52Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Frequency-Tuned Universal Adversarial Attacks [19.79803434998116]
本稿では,周波数調整型ユニバーサルアタック手法を提案する。
提案手法は, 誤認識率の観点から, 知覚可能性と有効性とのバランスが良好であることを示す。
論文 参考訳(メタデータ) (2020-03-11T22:52:19Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。