論文の概要: Boosting the Transferability of Adversarial Examples via Local Mixup and
Adaptive Step Size
- arxiv url: http://arxiv.org/abs/2401.13205v1
- Date: Wed, 24 Jan 2024 03:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 15:27:35.819846
- Title: Boosting the Transferability of Adversarial Examples via Local Mixup and
Adaptive Step Size
- Title(参考訳): 局所的混合と適応的ステップサイズによる逆例の伝達性の向上
- Authors: Junlin Liu and Xinchen Lyu
- Abstract要約: 敵対的な例は、様々な視覚的アプリケーションに対する重要なセキュリティ上の脅威の一つであり、注入された人間に知覚できない摂動が出力を混乱させる可能性がある。
既存の入力多様性に基づく手法では、異なる画像変換が採用されているが、入力の多様性が不十分であり、同じ摂動ステップサイズのため、非効率である可能性がある。
本稿では,改良された入力の多様性と適応的なステップサイズを共同で設計し,ブラックボックスの逆生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.04766995613269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are one critical security threat to various visual
applications, where injected human-imperceptible perturbations can confuse the
output.Generating transferable adversarial examples in the black-box setting is
crucial but challenging in practice. Existing input-diversity-based methods
adopt different image transformations, but may be inefficient due to
insufficient input diversity and an identical perturbation step size. Motivated
by the fact that different image regions have distinctive weights in
classification, this paper proposes a black-box adversarial generative
framework by jointly designing enhanced input diversity and adaptive step
sizes. We design local mixup to randomly mix a group of transformed adversarial
images, strengthening the input diversity. For precise adversarial generation,
we project the perturbation into the $tanh$ space to relax the boundary
constraint. Moreover, the step sizes of different regions can be dynamically
adjusted by integrating a second-order momentum.Extensive experiments on
ImageNet validate that our framework can achieve superior transferability
compared to state-of-the-art baselines.
- Abstract(参考訳): 敵の例は様々な視覚的応用にとって重要なセキュリティ上の脅威の一つであり、人間の知覚できない摂動が出力を混乱させる可能性がある。
既存の入力多様性に基づく方法は、異なる画像変換を採用するが、入力の多様性が不十分で、摂動ステップのサイズが同じであるために効率が悪い可能性がある。
本稿では,異なる画像領域が分類に特有の重みを持つという事実に動機づけられ,入力の多様性と適応的なステップサイズを共同で設計することにより,ブラックボックスの逆生成枠組みを提案する。
変換された逆画像群をランダムに混合し、入力の多様性を高めるために局所混合を設計する。
正確な逆生成のために、境界制約を緩和するために$tanh$空間に摂動を投影する。
さらに,2次運動量を統合することで,異なる領域のステップサイズを動的に調整することが可能である。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Rethinking Mixup for Improving the Adversarial Transferability [6.2867306093287905]
我々は、MIST(Mixing the Image but Separating the gradienT)と呼ばれる入力変換に基づく新たな攻撃を提案する。
MISTは、入力画像とランダムにシフトした画像とをランダムに混合し、混合画像毎に各損失項目の勾配を分離する。
ImageNetデータセットの実験では、MISTが既存のSOTA入力変換ベースの攻撃より優れていることが示されている。
論文 参考訳(メタデータ) (2023-11-28T03:10:44Z) - Structure Invariant Transformation for better Adversarial
Transferability [9.272426833639615]
構造不変攻撃(Structure Invariant Attack, SIA)と呼ばれる新しい入力変換に基づく攻撃を提案する。
SIAは各画像ブロックにランダムな画像変換を適用し、勾配計算のための多様な画像群を作成する。
標準的なImageNetデータセットの実験では、SIAは既存のSOTA入力変換ベースの攻撃よりもはるかに優れた転送性を示している。
論文 参考訳(メタデータ) (2023-09-26T06:31:32Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Interlayer and Intralayer Scale Aggregation for Scale-invariant Crowd
Counting [19.42355176075503]
本稿では,シングルカラムスケール不変ネットワーク(ScSiNet)について述べる。
層間多スケール積分と新しい層間スケール不変変換(SiT)を組み合わせることで、洗練されたスケール不変特徴を抽出する。
公開データセットの実験では、提案手法は精度とスケール不変特性のカウントにおける最先端のアプローチを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2020-05-25T06:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。