論文の概要: Adaptive Image Transformations for Transfer-based Adversarial Attack
- arxiv url: http://arxiv.org/abs/2111.13844v1
- Date: Sat, 27 Nov 2021 08:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:11:41.277770
- Title: Adaptive Image Transformations for Transfer-based Adversarial Attack
- Title(参考訳): 移動型対向攻撃に対する適応的画像変換
- Authors: Zheng Yuan, Jie Zhang, Shiguang Shan
- Abstract要約: 適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
- 参考スコア(独自算出の注目度): 73.74904401540743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks provide a good way to study the robustness of deep
learning models. One category of methods in transfer-based black-box attack
utilizes several image transformation operations to improve the transferability
of adversarial examples, which is effective, but fails to take the specific
characteristic of the input image into consideration. In this work, we propose
a novel architecture, called Adaptive Image Transformation Learner (AITL),
which incorporates different image transformation operations into a unified
framework to further improve the transferability of adversarial examples.
Unlike the fixed combinational transformations used in existing works, our
elaborately designed transformation learner adaptively selects the most
effective combination of image transformations specific to the input image.
Extensive experiments on ImageNet demonstrate that our method significantly
improves the attack success rates on both normally trained models and defense
models under various settings.
- Abstract(参考訳): 敵対的攻撃は、ディープラーニングモデルの堅牢性を研究する良い方法を提供する。
転送ベースのブラックボックス攻撃の方法の1つのカテゴリは、いくつかの画像変換操作を使用して、逆例の転送性を改善するが、入力画像の特定の特性を考慮していない。
本研究では,異なる画像変換操作を統合されたフレームワークに組み込んだ新しいアーキテクチャであるAdaptive Image Transformation Learner (AITL)を提案する。
既存の作業で用いられる固定組合せ変換とは異なり、精巧に設計された変換学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
ImageNetの大規模な実験により,通常訓練されたモデルと防御モデルの両方の攻撃成功率を,様々な条件下で大幅に向上することが示された。
関連論文リスト
- Learning to Transform Dynamically for Better Adversarial Transferability [32.267484632957576]
人間に知覚できない摂動を加えることで構築された敵対的な例は、ニューラルネットワークを欺く可能性がある。
我々はL2T(Learning to Transform)という新しいアプローチを導入する。
L2Tは、候補プールからの操作の最適な組み合わせを選択することにより、変換された画像の多様性を高める。
論文 参考訳(メタデータ) (2024-05-23T00:46:53Z) - OT-Attack: Enhancing Adversarial Transferability of Vision-Language
Models via Optimal Transport Optimization [65.57380193070574]
視覚言語事前学習モデルは、マルチモーダル対逆例に対して脆弱である。
近年の研究では、データ拡張と画像-テキストのモーダル相互作用を活用することで、対向的な例の転送可能性を高めることが示されている。
本稿では,OT-Attack と呼ばれる最適輸送方式の敵攻撃を提案する。
論文 参考訳(メタデータ) (2023-12-07T16:16:50Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Structure Invariant Transformation for better Adversarial
Transferability [9.272426833639615]
構造不変攻撃(Structure Invariant Attack, SIA)と呼ばれる新しい入力変換に基づく攻撃を提案する。
SIAは各画像ブロックにランダムな画像変換を適用し、勾配計算のための多様な画像群を作成する。
標準的なImageNetデータセットの実験では、SIAは既存のSOTA入力変換ベースの攻撃よりもはるかに優れた転送性を示している。
論文 参考訳(メタデータ) (2023-09-26T06:31:32Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - Towards Understanding and Harnessing the Effect of Image Transformation
in Adversarial Detection [8.436194871428805]
ディープニューラルネットワーク(DNN)は、敵の例から脅威を受けている。
画像変換は、敵の例を検出する最も効果的な手法の1つである。
複数の画像変換を組み合わせた改良手法を提案する。
論文 参考訳(メタデータ) (2022-01-04T10:58:59Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。