論文の概要: Transferability Bound Theory: Exploring Relationship between Adversarial Transferability and Flatness
- arxiv url: http://arxiv.org/abs/2311.06423v2
- Date: Wed, 02 Oct 2024 08:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:18:21.403195
- Title: Transferability Bound Theory: Exploring Relationship between Adversarial Transferability and Flatness
- Title(参考訳): 伝達可能性境界理論:対向移動可能性と平坦性の関係を探る
- Authors: Mingyuan Fan, Xiaodan Li, Cen Chen, Wenmeng Zhou, Yaliang Li,
- Abstract要約: 一般的な信念は、対向例の平坦度が高ければ高いほど、モデル間移動性が向上するということである。
そこで本研究では, クラフト逆数例に対する導出のサロゲートを最適化する, 理論的に予測可能な攻撃であるTPAを提案する。
- 参考スコア(独自算出の注目度): 40.873711834682055
- License:
- Abstract: A prevailing belief in attack and defense community is that the higher flatness of adversarial examples enables their better cross-model transferability, leading to a growing interest in employing sharpness-aware minimization and its variants. However, the theoretical relationship between the transferability of adversarial examples and their flatness has not been well established, making the belief questionable. To bridge this gap, we embark on a theoretical investigation and, for the first time, derive a theoretical bound for the transferability of adversarial examples with few practical assumptions. Our analysis challenges this belief by demonstrating that the increased flatness of adversarial examples does not necessarily guarantee improved transferability. Moreover, building upon the theoretical analysis, we propose TPA, a Theoretically Provable Attack that optimizes a surrogate of the derived bound to craft adversarial examples. Extensive experiments across widely used benchmark datasets and various real-world applications show that TPA can craft more transferable adversarial examples compared to state-of-the-art baselines. We hope that these results can recalibrate preconceived impressions within the community and facilitate the development of stronger adversarial attack and defense mechanisms. The source codes are available in <https://github.com/fmy266/TPA>.
- Abstract(参考訳): 攻撃と防衛のコミュニティに対する一般的な信念は、敵の例の平坦度が高くなれば、モデル間の移動性が向上し、シャープネスを意識した最小化とその変種の採用への関心が高まっているということである。
しかし、敵の例の移動可能性とその平坦性の間の理論的関係は十分に確立されておらず、その信念は疑問視されている。
このギャップを埋めるために、我々は理論的な調査を開始し、初めて、現実的な仮定をほとんど持たない敵の例の移動可能性に関する理論的境界を導出した。
本分析は, 対向例の平坦度の増加が伝達可能性の向上を必ずしも保証しないことを示すことによって, この信念に異議を唱えるものである。
さらに, 理論的解析に基づいて, TPAを提案する。
広く使用されているベンチマークデータセットやさまざまな実世界のアプリケーションに対する大規模な実験は、TPAが最先端のベースラインと比較して、より移行可能な逆の例を作成できることを示している。
これらの結果が、コミュニティ内の先入観を再認識し、より強力な敵攻撃・防衛機構の開発を促進することを期待する。
ソースコードは <https://github.com/fmy266/TPA> で公開されている。
関連論文リスト
- Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Improving Adversarial Transferability with Scheduled Step Size and Dual
Example [33.00528131208799]
反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
論文 参考訳(メタデータ) (2023-01-30T15:13:46Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Block-Sparse Adversarial Attack to Fool Transformer-Based Text
Classifiers [49.50163349643615]
本稿では,変圧器を用いたテキスト分類器に対して,勾配に基づく逆攻撃を提案する。
実験結果から, 文の意味を抑えながら, GPT-2の精度を5%以下に抑えることができた。
論文 参考訳(メタデータ) (2022-03-11T14:37:41Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Gradient-based Adversarial Attacks against Text Transformers [96.73493433809419]
トランスモデルに対する初の汎用勾配攻撃を提案する。
我々は、ホワイトボックス攻撃が様々な自然言語タスクにおいて最先端の攻撃性能を達成することを実証的に実証する。
論文 参考訳(メタデータ) (2021-04-15T17:43:43Z) - Generalizing Adversarial Examples by AdaBelief Optimizer [6.243028964381449]
本稿では,AdaBelief反復高速勾配符号法を提案し,その逆例を一般化する。
提案手法は,最先端の攻撃手法と比較して,ホワイトボックス設定における敵例を効果的に生成することができる。
転送速度は、最新の攻撃方法よりも7%-21%高いです。
論文 参考訳(メタデータ) (2021-01-25T07:39:16Z) - Self-adaptive Re-weighted Adversarial Domain Adaptation [12.73753413032972]
自己適応型再重み付き対向ドメイン適応手法を提案する。
条件分布の観点からドメインアライメントを強化する。
実証的な証拠は、提案されたモデルが標準的なドメイン適応データセットで芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-05-30T08:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。