論文の概要: Towards Transferable Unrestricted Adversarial Examples with Minimum
Changes
- arxiv url: http://arxiv.org/abs/2201.01102v1
- Date: Tue, 4 Jan 2022 12:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 17:23:29.707469
- Title: Towards Transferable Unrestricted Adversarial Examples with Minimum
Changes
- Title(参考訳): 極小変化を伴う移動可能非制限逆例に向けて
- Authors: Fangcheng Liu, Chao Zhang, Hongyang Zhang
- Abstract要約: 転送ベースの敵の例はブラックボックス攻撃の最も重要なクラスの一つである。
対人摂動の伝達可能性と非受容性の間にはトレードオフがある。
最小限の変更を伴って転送可能な逆例を生成するための幾何対応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.75751221823941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer-based adversarial example is one of the most important classes of
black-box attacks. However, there is a trade-off between transferability and
imperceptibility of the adversarial perturbation. Prior work in this direction
often requires a fixed but large $\ell_p$-norm perturbation budget to reach a
good transfer success rate, leading to perceptible adversarial perturbations.
On the other hand, most of the current unrestricted adversarial attacks that
aim to generate semantic-preserving perturbations suffer from weaker
transferability to the target model. In this work, we propose a geometry-aware
framework to generate transferable adversarial examples with minimum changes.
Analogous to model selection in statistical machine learning, we leverage a
validation model to select the optimal perturbation budget for each image under
both the $\ell_{\infty}$-norm and unrestricted threat models. Extensive
experiments verify the effectiveness of our framework on balancing
imperceptibility and transferability of the crafted adversarial examples. The
methodology is the foundation of our entry to the CVPR'21 Security AI
Challenger: Unrestricted Adversarial Attacks on ImageNet, in which we ranked
1st place out of 1,559 teams and surpassed the runner-up submissions by 4.59%
and 23.91% in terms of final score and average image quality level,
respectively. Code is available at https://github.com/Equationliu/GA-Attack.
- Abstract(参考訳): transfer-based adversarial exampleはブラックボックス攻撃の最も重要なクラスの1つである。
しかし, 対向摂動の伝達可能性と非受容性の間にはトレードオフがある。
この方向の先行作業には、良好な転送成功率に達するためには、固定だが大きな$\ell_p$-norm摂動予算が必要となることが多い。
一方、セマンティック保存摂動を発生させようとする現在の非制限の敵攻撃のほとんどは、ターゲットモデルへのより弱い転送可能性に悩まされている。
本稿では,最小限の変更で転送可能な逆例を生成する幾何認識フレームワークを提案する。
統計的機械学習におけるモデル選択と同様に、各画像に対する最適な摂動予算を$\ell_{\infty}$-normとunrestricted threatモデルの両方の下で選択するために検証モデルを利用する。
大規模実験により,本フレームワークの有効性を検証し,その有効性を検証した。
cvpr'21 security ai challenger: unrestricted adversarial attack on imagenetでは,1,559チーム中1位にランクインし,最終スコアと平均画像品質レベルで,次点を4.59%,23.91%上回った。
コードはhttps://github.com/Equationliu/GA-Attack.comで入手できる。
関連論文リスト
- PEAS: A Strategy for Crafting Transferable Adversarial Examples [2.9815109163161204]
ブラックボックス攻撃は、機械学習システムに重大な脅威をもたらす。
代用モデルで生成された逆例は、しばしばターゲットモデルへの限定的な転送可能性に悩まされる。
我々は,既存のブラックボックス攻撃の転送可能性を高める新しい戦略PEASを提案する。
論文 参考訳(メタデータ) (2024-10-20T14:55:08Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate [8.248964912483912]
敵の例の転送性は、転送ベースのブラックボックス敵攻撃において重要である。
転送ベースブラックボックス攻撃に対するLipschitz Regularized Surrogate (LRS)を提案する。
我々は、最先端のディープニューラルネットワークとディフェンスモデルを攻撃することで、提案したLSSアプローチを評価する。
論文 参考訳(メタデータ) (2023-12-20T15:37:50Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - On Generating Transferable Targeted Perturbations [102.3506210331038]
伝達性の高い標的摂動に対する新しい生成的アプローチを提案する。
私たちのアプローチは、ターゲットクラスの「乱れた画像分布」にマッチし、高いターゲット転送率につながります。
論文 参考訳(メタデータ) (2021-03-26T17:55:28Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。