論文の概要: Perturbation Towards Easy Samples Improves Targeted Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2406.05535v1
- Date: Sat, 8 Jun 2024 17:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:16:08.539704
- Title: Perturbation Towards Easy Samples Improves Targeted Adversarial Transferability
- Title(参考訳): 簡易サンプルへの摂動による対向移動性の向上
- Authors: Junqi Gao, Biqing Qi, Yao Li, Zhichang Guo, Dong Li, Yuming Xing, Dazhi Zhang,
- Abstract要約: ESMA(Easy Sample Matching Attack)と呼ばれる攻撃戦略が提案されている。
ESMAは標的攻撃の成功率が高く、SOTA生成法より優れている。
- 参考スコア(独自算出の注目度): 6.631279159122179
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The transferability of adversarial perturbations provides an effective shortcut for black-box attacks. Targeted perturbations have greater practicality but are more difficult to transfer between models. In this paper, we experimentally and theoretically demonstrated that neural networks trained on the same dataset have more consistent performance in High-Sample-Density-Regions (HSDR) of each class instead of low sample density regions. Therefore, in the target setting, adding perturbations towards HSDR of the target class is more effective in improving transferability. However, density estimation is challenging in high-dimensional scenarios. Further theoretical and experimental verification demonstrates that easy samples with low loss are more likely to be located in HSDR. Perturbations towards such easy samples in the target class can avoid density estimation for HSDR location. Based on the above facts, we verified that adding perturbations to easy samples in the target class improves targeted adversarial transferability of existing attack methods. A generative targeted attack strategy named Easy Sample Matching Attack (ESMA) is proposed, which has a higher success rate for targeted attacks and outperforms the SOTA generative method. Moreover, ESMA requires only 5% of the storage space and much less computation time comparing to the current SOTA, as ESMA attacks all classes with only one model instead of seperate models for each class. Our code is available at https://github.com/gjq100/ESMA.
- Abstract(参考訳): 敵の摂動の伝達性はブラックボックス攻撃の効果的なショートカットを提供する。
標的摂動はより実用性が高いが、モデル間での移動は困難である。
本稿では,同じデータセット上でトレーニングされたニューラルネットワークが,サンプル密度の低い領域ではなく,各クラスの高サンプル密度領域(HSDR)においてより一貫した性能を示すことを実験的に理論的に実証した。
したがって, 対象クラスのHSDRに対して摂動を加えることは, 転送性の向上に有効である。
しかし,高次元シナリオでは密度推定が困難である。
さらなる理論的、実験的検証により、損失の少ないサンプルがHSDRに入る可能性がより高いことが示されている。
対象クラスのこのような簡単なサンプルに対する摂動は、HSDR位置の密度推定を避けることができる。
以上より,対象クラスのサンプルに摂動を加えることで,既存の攻撃手法の対向移動性が向上することが確認された。
標的攻撃の成功率が高いESMA(Easy Sample Matching Attack)と呼ばれるジェネレーティブターゲット攻撃戦略が提案され,SOTA生成法よりも優れていた。
さらに、ESMAはストレージスペースの5%しか必要とせず、現在のSOTAと比較して計算時間もはるかに少なく、ESMAは各クラスの分離モデルではなく、1つのモデルで全てのクラスを攻撃している。
私たちのコードはhttps://github.com/gjq100/ESMAで公開されています。
関連論文リスト
- Improving Transferable Targeted Adversarial Attack via Normalized Logit Calibration and Truncated Feature Mixing [26.159434438078968]
損失・特徴面から目標転送可能性を改善するための2つの手法を提案する。
以前のアプローチでは、ロジットキャリブレーションは主にターゲットクラスとサンプル間の未ターゲットクラスの間のロジットマージンに焦点を当てていた。
本稿では,ロジットマージンと標準偏差を共同で検討する正規化ロジット校正手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T09:13:57Z) - Exploring Frequencies via Feature Mixing and Meta-Learning for Improving Adversarial Transferability [26.159434438078968]
両試料の周波数特性を生かした周波数分解型特徴混合法を提案する。
本研究は, クリーンサンプルの特徴を, 敵の例から抽出した敵の特徴に組み込むことが, 正常に訓練されたモデルに対する攻撃に有効であることが示唆された。
本稿では,メタトレインステップ,メタテストステップ,最終更新を含むクロス周波数メタ最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T06:32:58Z) - SWAP: Exploiting Second-Ranked Logits for Adversarial Attacks on Time
Series [11.356275885051442]
時系列分類(TSC)は、様々な領域において重要な課題となっている。
ディープニューラルモデルは、TSCタスクにおいて優れたパフォーマンスを示している。
TSCモデルは敵攻撃に対して脆弱である。
TSCモデルの新たな攻撃手法であるSWAPを提案する。
論文 参考訳(メタデータ) (2023-09-06T06:17:35Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - DVERGE: Diversifying Vulnerabilities for Enhanced Robust Generation of
Ensembles [20.46399318111058]
敵攻撃は、小さな摂動でCNNモデルを誤解させる可能性があるため、同じデータセットでトレーニングされた異なるモデル間で効果的に転送することができる。
非破壊的特徴を蒸留することにより,各サブモデルの逆脆弱性を分離するDVERGEを提案する。
新たな多様性基準とトレーニング手順により、DVERGEは転送攻撃に対して高い堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-30T14:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。