論文の概要: S$^4$ST: A Strong, Self-transferable, faSt, and Simple Scale Transformation for Transferable Targeted Attack
- arxiv url: http://arxiv.org/abs/2410.13891v1
- Date: Sun, 13 Oct 2024 11:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:11:49.209495
- Title: S$^4$ST: A Strong, Self-transferable, faSt, and Simple Scale Transformation for Transferable Targeted Attack
- Title(参考訳): S$4$ST:転送可能なターゲット攻撃のための強力で自己伝達可能なfaStと簡易なスケール変換
- Authors: Yongxiang Liu, Bowen Peng, Li Liu, Xiang Li,
- Abstract要約: ディープニューラルネットワークに対するTTA(Transferable Targeted Adversarial attacks)は、標的外攻撃よりもはるかに難しいことが証明されている。
本報告では, 簡易勾配ベースラインを利用した高効率かつ転送可能なターゲットアタックについて, 新たな光を当てる。
- 参考スコア(独自算出の注目度): 15.32139337298543
- License:
- Abstract: Transferable targeted adversarial attacks (TTAs) against deep neural networks have been proven significantly more challenging than untargeted ones, yet they remain relatively underexplored. This paper sheds new light on performing highly efficient yet transferable targeted attacks leveraging the simple gradient-based baseline. Our research underscores the critical importance of image transformations within gradient calculations, marking a shift from the prevalent emphasis on loss functions to address the gradient vanishing problem. Moreover, we have developed two effective blind estimators that facilitate the design of transformation strategies to enhance targeted transferability under black-box conditions. The adversarial examples' self-transferability to geometric transformations has been identified as strongly correlated with their black-box transferability, featuring these basic operations as potent yet overlapped proxies for facilitating targeted transferability. The surrogate self-alignment assessments further highlight simple scaling transformation's exceptional efficacy, which rivals that of most advanced methods. Building on these insights, we introduce a scaling-centered transformation strategy termed Strong, Self-transferable, faSt, and Simple Scale Transformation (S4ST) to enhance transferable targeted attacks. In experiments conducted on the ImageNet-Compatible benchmark dataset, our proposed S4ST attains a SOTA average targeted transfer success rate across various challenging black-box models, outperforming the previous leading method by over 14% while requiring only 25% of the execution time. Additionally, our approach eclipses SOTA attacks considerably and exhibits remarkable effectiveness against real-world APIs. This work marks a significant leap forward in TTAs, revealing the realistic threats they pose and providing a practical generation method for future research.
- Abstract(参考訳): ディープニューラルネットワークに対するTTA(Transferable Targeted Adversarial attacks)は、未発見の攻撃よりもはるかに難しいことが証明されている。
本報告では, 簡易勾配ベースラインを利用した高効率かつ転送可能なターゲットアタックについて, 新たな光を当てる。
我々の研究は、勾配計算における画像変換の重要性を強調し、損失関数の強調から勾配消滅問題へのシフトを示している。
さらに、ブラックボックス条件下での目標転送性を高めるために、変換戦略の設計を容易にする2つの効果的なブラインド推定器を開発した。
幾何変換に対する逆例の自己伝達性は、ブラックボックスの転送可能性と強く相関していると考えられており、これらの基本的な操作は、ターゲットの転送可能性を促進するために、強力だが重なり合うプロキシとして特徴付けられる。
自己アライメント評価の代理は、最も先進的な手法に匹敵する単純なスケーリング変換の例外的な効果をさらに強調する。
これらの知見に基づいて、我々はStrong, Self-transferable, faSt, Simple Scale Transformation (S4ST)と呼ばれるスケーリング中心のトランスフォーメーション戦略を導入し、トランスフォーメーション可能なターゲットアタックを強化する。
ImageNet-Compatibleベンチマークデータセットで行った実験では、提案したS4STは、様々な挑戦的なブラックボックスモデルにおけるSOTA平均転送成功率を達成し、実行時間の25%しか必要とせず、先行手法を14%以上上回った。
さらに,本手法はSOTA攻撃を著しく減らし,実世界のAPIに対して顕著な効果を示す。
この研究はTTAにとって大きな飛躍であり、それらがもたらす現実的な脅威を明らかにし、将来の研究に実用的な生成方法を提供する。
関連論文リスト
- Enhancing Transferability of Targeted Adversarial Examples: A Self-Universal Perspective [13.557972227440832]
ブラックボックスディープニューラルネットワーク(DNN)に対するトランスファーベースの敵攻撃は、未ターゲットの攻撃よりもはるかに難しいことが証明されている。
生成方法である現在のSOTAの印象的な転送性は、大量の追加データを必要とするコストと、ターゲットラベルごとに時間のかかるトレーニングが伴う。
私たちは、この目標を追求する際の入力変換の大きな可能性を明らかにする、自己普遍的な視点を提供します。
論文 参考訳(メタデータ) (2024-07-22T14:51:28Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - AutoAugment Input Transformation for Highly Transferable Targeted
Attacks [9.970326131028159]
我々は,AutoAugment Input Transformation (AAIT) と呼ばれる新たな敵攻撃を提案する。
AAITは、様々な操作からなる変換空間から最適な変換ポリシーを探索する。
検出された最適な変換ポリシーを使用して敵の例を作成し、標的攻撃における敵の移動可能性を高める。
論文 参考訳(メタデータ) (2023-12-21T12:49:36Z) - Transferable Adversarial Attacks on Vision Transformers with Token
Gradient Regularization [32.908816911260615]
ビジョントランス (ViT) は様々なコンピュータビジョンタスクにうまく展開されているが、それでも敵のサンプルには弱い。
転送ベースの攻撃は、ローカルモデルを使用して敵のサンプルを生成し、ターゲットのブラックボックスモデルを攻撃するために直接転送する。
本稿では,既存のアプローチの欠点を克服するために,Token Gradient Regularization (TGR)法を提案する。
論文 参考訳(メタデータ) (2023-03-28T06:23:17Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Frustratingly Easy Transferability Estimation [64.42879325144439]
本稿では,TransRate という,シンプルで効率的かつ効果的な転送可能性尺度を提案する。
TransRateは、事前訓練されたモデルによって抽出された対象サンプルの特徴とそれらのラベルとの間の相互情報として、転送可能性を測定する。
10行のコードで並外れた単純さにもかかわらず、TransRateは、22の事前訓練されたモデルと16のダウンストリームタスクに対する広範囲な評価において、非常にうまく機能している。
論文 参考訳(メタデータ) (2021-06-17T10:27:52Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。