論文の概要: Flatness-aware Adversarial Attack
- arxiv url: http://arxiv.org/abs/2311.06423v1
- Date: Fri, 10 Nov 2023 23:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 18:48:55.808949
- Title: Flatness-aware Adversarial Attack
- Title(参考訳): 平坦性を考慮した敵攻撃
- Authors: Mingyuan Fan, Xiaodan Li, Cen Chen, Yinggui Wang
- Abstract要約: 入力正規化に基づく手法は, 平面極端領域に偏って, 結果の逆例を生じさせることを示す。
そこで本研究では,フラットネス・アウェア・敵攻撃(FAA)と呼ばれる攻撃に対して,最適化対象に平坦ネス・アウェア・正規化項を明示的に付加する手法を提案する。
- 参考スコア(独自算出の注目度): 24.182898385616184
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The transferability of adversarial examples can be exploited to launch
black-box attacks. However, adversarial examples often present poor
transferability. To alleviate this issue, by observing that the diversity of
inputs can boost transferability, input regularization based methods are
proposed, which craft adversarial examples by combining several transformed
inputs. We reveal that input regularization based methods make resultant
adversarial examples biased towards flat extreme regions. Inspired by this, we
propose an attack called flatness-aware adversarial attack (FAA) which
explicitly adds a flatness-aware regularization term in the optimization target
to promote the resultant adversarial examples towards flat extreme regions. The
flatness-aware regularization term involves gradients of samples around the
resultant adversarial examples but optimizing gradients requires the evaluation
of Hessian matrix in high-dimension spaces which generally is intractable. To
address the problem, we derive an approximate solution to circumvent the
construction of Hessian matrix, thereby making FAA practical and cheap.
Extensive experiments show the transferability of adversarial examples crafted
by FAA can be considerably boosted compared with state-of-the-art baselines.
- Abstract(参考訳): 敵の例の転送可能性を利用してブラックボックス攻撃を起動することができる。
しかし、逆の例は、しばしばトランスファービリティが劣る。
この問題を緩和するために、入力の多様性が転送性を高めることを観察することにより、複数の変換入力を組み合わせることで逆行例を作成する入力正規化に基づく手法が提案されている。
入力正規化に基づく手法は,結果の逆例を平坦な極端領域に偏らせる。
そこで本研究では,フラットネス・アウェア・逆境攻撃(FAA)と呼ばれる攻撃を,最適化対象にフラットネス・アウェア・正則化項を明示的に付加し,その結果をフラット極端領域に向けて促進する手法を提案する。
平坦性対応正規化項は、結果の逆例の周りのサンプルの勾配を含むが、最適化勾配は一般に難解な高次元空間におけるヘッセン行列の評価を必要とする。
この問題に対処するため、ヘッセン行列の構築を回避し、FAAを実用的かつ安価にするための近似解を導出する。
広範な実験により、faaが作成した敵のサンプルの移動性は最先端のベースラインと比較して大幅に向上することが示された。
関連論文リスト
- Efficiently Adversarial Examples Generation for Visual-Language Models under Targeted Transfer Scenarios using Diffusion Models [14.648969482318252]
本稿では,自然に制約のない逆の例を生成するAdvDiffVLMを紹介する。
本手法は,既存のトランスファーベース攻撃法と比較して10Xから30Xまでの高速化を実現する。
特にAdvDiffVLMは、GPT-4Vを含む商用VLMをブラックボックス方式で攻撃できる。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Improving Adversarial Transferability with Scheduled Step Size and Dual
Example [33.00528131208799]
反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
論文 参考訳(メタデータ) (2023-01-30T15:13:46Z) - Provable Unrestricted Adversarial Training without Compromise with
Generalizability [58.02189998104753]
敵の攻撃から守るための最も有望な戦略として、敵の訓練(AT)が広く考えられている。
既存のAT法は、標準的な一般化性を犠牲にして、しばしば敵の強靭性を達成している。
我々はProvable Unrestricted Adversarial Training (PUAT)と呼ばれる新しいATアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-22T07:45:51Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Gradient-based Adversarial Attacks against Text Transformers [96.73493433809419]
トランスモデルに対する初の汎用勾配攻撃を提案する。
我々は、ホワイトボックス攻撃が様々な自然言語タスクにおいて最先端の攻撃性能を達成することを実証的に実証する。
論文 参考訳(メタデータ) (2021-04-15T17:43:43Z) - Generalizing Adversarial Examples by AdaBelief Optimizer [6.243028964381449]
本稿では,AdaBelief反復高速勾配符号法を提案し,その逆例を一般化する。
提案手法は,最先端の攻撃手法と比較して,ホワイトボックス設定における敵例を効果的に生成することができる。
転送速度は、最新の攻撃方法よりも7%-21%高いです。
論文 参考訳(メタデータ) (2021-01-25T07:39:16Z) - Self-adaptive Re-weighted Adversarial Domain Adaptation [12.73753413032972]
自己適応型再重み付き対向ドメイン適応手法を提案する。
条件分布の観点からドメインアライメントを強化する。
実証的な証拠は、提案されたモデルが標準的なドメイン適応データセットで芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-05-30T08:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。