論文の概要: The Ultimate Combo: Boosting Adversarial Example Transferability by
Composing Data Augmentations
- arxiv url: http://arxiv.org/abs/2312.11309v1
- Date: Mon, 18 Dec 2023 16:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:31:03.598619
- Title: The Ultimate Combo: Boosting Adversarial Example Transferability by
Composing Data Augmentations
- Title(参考訳): アルティメット・コンボ:データ拡張による逆例転送性の向上
- Authors: Zebin Yun, Achi-Or Weingarten, Eyal Ronen and Mahmood Sharif
- Abstract要約: 代理機械学習(ML)モデルからターゲットモデルへの逆数例の転送は、ブラックボックスの逆数評価において一般的に用いられる。
我々はデータ拡張が転送可能性にどのように影響するかを体系的に研究した。
転送可能性を促進するのに役立つ拡張の組み合わせを特定した。
- 参考スコア(独自算出の注目度): 8.660943919572576
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Transferring adversarial examples (AEs) from surrogate machine-learning (ML)
models to target models is commonly used in black-box adversarial robustness
evaluation. Attacks leveraging certain data augmentation, such as random
resizing, have been found to help AEs generalize from surrogates to targets.
Yet, prior work has explored limited augmentations and their composition. To
fill the gap, we systematically studied how data augmentation affects
transferability. Particularly, we explored 46 augmentation techniques of seven
categories originally proposed to help ML models generalize to unseen benign
samples, and assessed how they impact transferability, when applied
individually or composed. Performing exhaustive search on a small subset of
augmentation techniques and genetic search on all techniques, we identified
augmentation combinations that can help promote transferability. Extensive
experiments with the ImageNet and CIFAR-10 datasets and 18 models showed that
simple color-space augmentations (e.g., color to greyscale) outperform the
state of the art when combined with standard augmentations, such as translation
and scaling. Additionally, we discovered that composing augmentations impacts
transferability mostly monotonically (i.e., more methods composed $\rightarrow$
$\ge$ transferability). We also found that the best composition significantly
outperformed the state of the art (e.g., 93.7% vs. $\le$ 82.7% average
transferability on ImageNet from normally trained surrogates to adversarially
trained targets). Lastly, our theoretical analysis, backed up by empirical
evidence, intuitively explain why certain augmentations help improve
transferability.
- Abstract(参考訳): 代理機械学習(ML)モデルからターゲットモデルへの逆数例(AE)の転送は、ブラックボックスの逆数ロバストネス評価において一般的に用いられる。
ランダムリサイズのような特定のデータ拡張を利用する攻撃は、AEsがサロゲートからターゲットへの一般化に役立つ。
しかし、以前の研究は限定的な拡張とその構成を探求している。
このギャップを埋めるために,データ拡張が転送性に与える影響を体系的に研究した。
特に,当初提案した7つのカテゴリの46の拡張手法を探索し,MLモデルが未知の良性サンプルに一般化するのを支援し,それらが個別に,あるいは構成された場合の伝達性にどのように影響するかを検討した。
補足技術のごく一部を徹底的に探索し,すべての手法を遺伝的に探索することにより,伝達性を促進するための補足の組み合わせを同定した。
ImageNetとCIFAR-10データセットと18モデルによる大規模な実験により、単純な色空間拡張(例えば、色からグレースケール)は、翻訳やスケーリングといった標準的な拡張と組み合わせることで、芸術の状態を上回ります。
さらに、増大が伝達可能性に大きく影響することを発見した(つまり、より多くのメソッドが$\rightarrow$$\ge$転送可能性を構成する)。
また、最高の構成が芸術の状態を著しく上回りました(例えば、93.7%対$\le$82.7%の平均転送可能性)。
最後に、実験的な証拠によって裏付けられた我々の理論的分析は、ある拡張がトランスファービリティを向上させる理由を直感的に説明します。
関連論文リスト
- Enhancing Transferability of Targeted Adversarial Examples: A Self-Universal Perspective [13.557972227440832]
ブラックボックスディープニューラルネットワーク(DNN)に対するトランスファーベースの敵攻撃は、未ターゲットの攻撃よりもはるかに難しいことが証明されている。
生成方法である現在のSOTAの印象的な転送性は、大量の追加データを必要とするコストと、ターゲットラベルごとに時間のかかるトレーニングが伴う。
私たちは、この目標を追求する際の入力変換の大きな可能性を明らかにする、自己普遍的な視点を提供します。
論文 参考訳(メタデータ) (2024-07-22T14:51:28Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Rethinking Data Augmentation for Single-source Domain Generalization in
Medical Image Segmentation [19.823497430391413]
医用画像セグメンテーションにおける単一ソース領域の一般化のためのデータ拡張戦略を再考する。
医用画像のクラスレベルの表現不変性やスタイル変更性に動機付けられ,C$ランダム変数の線形結合から未知のターゲットデータをサンプリングできるという仮説を立てた。
制約付きB$acuterm e$zier変換をグローバルおよびローカル(クラスレベル)の両方の領域で実装する。
重要な貢献として,提案手法が未確認対象領域上のリスク一般化の上限に達することが理論的に証明された。
論文 参考訳(メタデータ) (2022-11-27T12:05:33Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - Untapped Potential of Data Augmentation: A Domain Generalization
Viewpoint [14.360826930970765]
本研究では,拡張に基づく手法の領域一般化の観点から考察する。
最先端の強化手法による探索は、学習された表現が訓練中に使用する歪みに対してさえ頑健でないことを示す。
論文 参考訳(メタデータ) (2020-07-09T09:40:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。