論文の概要: The Ultimate Combo: Boosting Adversarial Example Transferability by Composing Data Augmentations
- arxiv url: http://arxiv.org/abs/2312.11309v2
- Date: Wed, 23 Oct 2024 05:30:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:55.170509
- Title: The Ultimate Combo: Boosting Adversarial Example Transferability by Composing Data Augmentations
- Title(参考訳): アルティメット・コンボ:データ拡張による逆例転送性の向上
- Authors: Zebin Yun, Achi-Or Weingarten, Eyal Ronen, Mahmood Sharif,
- Abstract要約: ブラックボックス回避攻撃には、データ拡張(例えば、ランダムリサイズ)が組み込まれている。
代理機械学習(ML)モデルからターゲットへの敵の例の一般化を支援するため、特定の転送可能性ベースの攻撃にはデータ拡張が組み込まれている。
我々はデータ拡張が転送可能性にどのように影響するかを体系的に研究した。
- 参考スコア(独自算出の注目度): 7.928158786834293
- License:
- Abstract: To help adversarial examples generalize from surrogate machine-learning (ML) models to targets, certain transferability-based black-box evasion attacks incorporate data augmentations (e.g., random resizing). Yet, prior work has explored limited augmentations and their composition. To fill the gap, we systematically studied how data augmentation affects transferability. Specifically, we explored 46 augmentation techniques originally proposed to help ML models generalize to unseen benign samples, and assessed how they impact transferability, when applied individually or composed. Performing exhaustive search on a small subset of augmentation techniques and genetic search on all techniques, we identified augmentation combinations that help promote transferability. Extensive experiments with the ImageNet and CIFAR-10 datasets and 18 models showed that simple color-space augmentations (e.g., color to greyscale) attain high transferability when combined with standard augmentations. Furthermore, we discovered that composing augmentations impacts transferability mostly monotonically (i.e., more augmentations $\rightarrow$ $\ge$transferability). We also found that the best composition significantly outperformed the state of the art (e.g., 91.8% vs. $\le$82.5% average transferability to adversarially trained targets on ImageNet). Lastly, our theoretical analysis, backed by empirical evidence, intuitively explains why certain augmentations promote transferability.
- Abstract(参考訳): 代理機械学習(ML)モデルからターゲットへの敵の例の一般化を支援するため、特定の転送可能性に基づくブラックボックス回避攻撃には、データ拡張(例えば、ランダムリサイズ)が組み込まれている。
しかし、以前の研究は限定的な拡張とその構成を探求してきた。
このギャップを埋めるために,データ拡張が転送可能性にどのように影響するかを系統的に検討した。
具体的には、当初提案した46の拡張手法を探索し、MLモデルが目立たない良性サンプルに一般化するのを支援し、それらが個別または構成された場合の伝達性に与える影響を評価した。
本研究は, 移植性向上に寄与する遺伝子組合わせを同定し, 遺伝子組換え法と遺伝子組換え法を併用し, 遺伝子組換え法と遺伝子組換え法を併用した。
ImageNetとCIFAR-10データセットと18モデルによる大規模な実験により、単純な色空間拡張(例えば、色からグレースケール)が標準拡張と組み合わせることで高い転送性が得られることが示された。
さらに、拡張の合成がトランスファービリティに大きく影響することを発見した(つまり、拡張は$\rightarrow$$\ge$transferability)。
また、最高の構成は最先端技術(例えば、91.8%対$$\le$82.5%の平均転送可能性)を大幅に上回っていることもわかりました。
最後に、実験的な証拠によって裏付けられた我々の理論的分析は、ある拡張が転送可能性を促進する理由を直感的に説明する。
関連論文リスト
- Enhancing Transferability of Targeted Adversarial Examples: A Self-Universal Perspective [13.557972227440832]
ブラックボックスディープニューラルネットワーク(DNN)に対するトランスファーベースの敵攻撃は、未ターゲットの攻撃よりもはるかに難しいことが証明されている。
生成方法である現在のSOTAの印象的な転送性は、大量の追加データを必要とするコストと、ターゲットラベルごとに時間のかかるトレーニングが伴う。
私たちは、この目標を追求する際の入力変換の大きな可能性を明らかにする、自己普遍的な視点を提供します。
論文 参考訳(メタデータ) (2024-07-22T14:51:28Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Rethinking Data Augmentation for Single-source Domain Generalization in
Medical Image Segmentation [19.823497430391413]
医用画像セグメンテーションにおける単一ソース領域の一般化のためのデータ拡張戦略を再考する。
医用画像のクラスレベルの表現不変性やスタイル変更性に動機付けられ,C$ランダム変数の線形結合から未知のターゲットデータをサンプリングできるという仮説を立てた。
制約付きB$acuterm e$zier変換をグローバルおよびローカル(クラスレベル)の両方の領域で実装する。
重要な貢献として,提案手法が未確認対象領域上のリスク一般化の上限に達することが理論的に証明された。
論文 参考訳(メタデータ) (2022-11-27T12:05:33Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - Untapped Potential of Data Augmentation: A Domain Generalization
Viewpoint [14.360826930970765]
本研究では,拡張に基づく手法の領域一般化の観点から考察する。
最先端の強化手法による探索は、学習された表現が訓練中に使用する歪みに対してさえ頑健でないことを示す。
論文 参考訳(メタデータ) (2020-07-09T09:40:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。