論文の概要: Rethinking Mixup for Improving the Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2311.17087v1
- Date: Tue, 28 Nov 2023 03:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 00:20:15.607604
- Title: Rethinking Mixup for Improving the Adversarial Transferability
- Title(参考訳): 逆転性向上のためのミックスアップの再考
- Authors: Xiaosen Wang, Zeyuan Yin
- Abstract要約: 我々は、MIST(Mixing the Image but Separating the gradienT)と呼ばれる入力変換に基づく新たな攻撃を提案する。
MISTは、入力画像とランダムにシフトした画像とをランダムに混合し、混合画像毎に各損失項目の勾配を分離する。
ImageNetデータセットの実験では、MISTが既存のSOTA入力変換ベースの攻撃より優れていることが示されている。
- 参考スコア(独自算出の注目度): 6.2867306093287905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixup augmentation has been widely integrated to generate adversarial
examples with superior adversarial transferability when immigrating from a
surrogate model to other models. However, the underlying mechanism influencing
the mixup's effect on transferability remains unexplored. In this work, we
posit that the adversarial examples located at the convergence of decision
boundaries across various categories exhibit better transferability and
identify that Admix tends to steer the adversarial examples towards such
regions. However, we find the constraint on the added image in Admix decays its
capability, resulting in limited transferability. To address such an issue, we
propose a new input transformation-based attack called Mixing the Image but
Separating the gradienT (MIST). Specifically, MIST randomly mixes the input
image with a randomly shifted image and separates the gradient of each loss
item for each mixed image. To counteract the imprecise gradient, MIST
calculates the gradient on several mixed images for each input sample.
Extensive experimental results on the ImageNet dataset demonstrate that MIST
outperforms existing SOTA input transformation-based attacks with a clear
margin on both Convolutional Neural Networks (CNNs) and Vision Transformers
(ViTs) w/wo defense mechanisms, supporting MIST's high effectiveness and
generality.
- Abstract(参考訳): 混合拡張は、代理モデルから他のモデルに移行する際に、より優れた逆転性を持つ逆転例を生成するために広く統合されている。
しかし、ミキサップの効果に影響を及ぼすメカニズムは未解明のままである。
本研究では,様々なカテゴリにおける意思決定境界の収束点に位置する逆例は,より優れた伝達性を示し,Admixがそのような領域に対して逆例を操る傾向にあることを示す。
しかし、Admixの付加画像上の制約は、その能力を損なうため、転送性は制限される。
このような問題に対処するため、我々はMixing the Image but Separating the gradienT (MIST)と呼ばれる新しい入力変換ベースの攻撃を提案する。
具体的には、MISTは、入力画像とランダムにシフトした画像とをランダムに混合し、混合画像毎に各損失項目の勾配を分離する。
不正確な勾配に対処するため、MISTは入力サンプル毎に複数の混合画像の勾配を算出する。
ImageNetデータセットの大規模な実験結果によると、MISTは既存のSOTA入力変換ベースの攻撃よりも優れており、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の2つの防御メカニズムに明確な差がある。
関連論文リスト
- Boosting the Transferability of Adversarial Examples via Local Mixup and
Adaptive Step Size [5.04766995613269]
敵対的な例は、様々な視覚的アプリケーションに対する重要なセキュリティ上の脅威の一つであり、注入された人間に知覚できない摂動が出力を混乱させる可能性がある。
既存の入力多様性に基づく手法では、異なる画像変換が採用されているが、入力の多様性が不十分であり、同じ摂動ステップサイズのため、非効率である可能性がある。
本稿では,改良された入力の多様性と適応的なステップサイズを共同で設計し,ブラックボックスの逆生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-24T03:26:34Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Boost Adversarial Transferability by Uniform Scale and Mix Mask Method [10.604083938124463]
代理モデルから生成された敵対的な例は、しばしば他のブラックボックスモデルを欺く能力を持っている。
本稿では,一様スケールと混合マスク法 (US-MM) というフレームワークを提案する。
US-MMは、最先端の手法と比較して平均7%の転送攻撃成功率を達成する。
論文 参考訳(メタデータ) (2023-11-18T10:17:06Z) - Structure Invariant Transformation for better Adversarial
Transferability [9.272426833639615]
構造不変攻撃(Structure Invariant Attack, SIA)と呼ばれる新しい入力変換に基づく攻撃を提案する。
SIAは各画像ブロックにランダムな画像変換を適用し、勾配計算のための多様な画像群を作成する。
標準的なImageNetデータセットの実験では、SIAは既存のSOTA入力変換ベースの攻撃よりもはるかに優れた転送性を示している。
論文 参考訳(メタデータ) (2023-09-26T06:31:32Z) - Improving the Transferability of Adversarial Examples with Arbitrary
Style Transfer [32.644062141738246]
スタイル転送ネットワークは、人間の意味的内容を保持しながら、画像内の低レベルの視覚的特徴の分布を変更することができる。
本稿では、任意のスタイル転送ネットワークを用いて、画像を異なる領域に変換する新たな攻撃手法であるStyle Transfer Method (STM)を提案する。
提案手法は、通常訓練されたモデルまたは逆訓練されたモデルにおいて、逆変換性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-08-21T09:58:13Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Unsupervised Misaligned Infrared and Visible Image Fusion via
Cross-Modality Image Generation and Registration [59.02821429555375]
我々は、教師なし不整合赤外線と可視画像融合のための頑健な相互モダリティ生成登録パラダイムを提案する。
登録された赤外線画像と可視画像とを融合させるため,IFM (Feature Interaction Fusion Module) を提案する。
論文 参考訳(メタデータ) (2022-05-24T07:51:57Z) - Admix: Enhancing the Transferability of Adversarial Attacks [46.69028919537312]
我々はAdmix Attack Method (AAM) と呼ばれる新しい入力変換に基づく攻撃を提案する。
AAMは元の画像と他のカテゴリからランダムに選択された画像の両方を考慮する。
提案手法は,トランスファービリティをさらに向上し,入力変換の最先端の組み合わせを3.4%のクリアマージンで上回ることができる。
論文 参考訳(メタデータ) (2021-01-31T11:40:50Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。