論文の概要: Perturbation Analysis of Gradient-based Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2006.01456v1
- Date: Tue, 2 Jun 2020 08:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:10:29.425908
- Title: Perturbation Analysis of Gradient-based Adversarial Attacks
- Title(参考訳): 勾配型対向攻撃の摂動解析
- Authors: Utku Ozbulak, Manvel Gasparyan, Wesley De Neve, Arnout Van Messem
- Abstract要約: 本稿では,L-BFGS攻撃,反復的高速勾配符号攻撃,Carliini & Wagner's attack (CW) の3つの一般的な例生成手法の目的機能について検討する。
具体的には、ImageNetデータセットに大規模な実験結果を配置しながら、上記の攻撃の根底にある損失関数の比較および形式解析を行う。
実験の結果, 敵の例を生成するのに高速と思われる反復的高速勾配符号攻撃は, 敵の例を作成するのに要する反復回数において最悪の攻撃であることがわかった。
- 参考スコア(独自算出の注目度): 2.3016608994689274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: After the discovery of adversarial examples and their adverse effects on deep
learning models, many studies focused on finding more diverse methods to
generate these carefully crafted samples. Although empirical results on the
effectiveness of adversarial example generation methods against defense
mechanisms are discussed in detail in the literature, an in-depth study of the
theoretical properties and the perturbation effectiveness of these adversarial
attacks has largely been lacking. In this paper, we investigate the objective
functions of three popular methods for adversarial example generation: the
L-BFGS attack, the Iterative Fast Gradient Sign attack, and Carlini & Wagner's
attack (CW). Specifically, we perform a comparative and formal analysis of the
loss functions underlying the aforementioned attacks while laying out
large-scale experimental results on ImageNet dataset. This analysis exposes (1)
the faster optimization speed as well as the constrained optimization space of
the cross-entropy loss, (2) the detrimental effects of using the signature of
the cross-entropy loss on optimization precision as well as optimization space,
and (3) the slow optimization speed of the logit loss in the context of
adversariality. Our experiments reveal that the Iterative Fast Gradient Sign
attack, which is thought to be fast for generating adversarial examples, is the
worst attack in terms of the number of iterations required to create
adversarial examples in the setting of equal perturbation. Moreover, our
experiments show that the underlying loss function of CW, which is criticized
for being substantially slower than other adversarial attacks, is not that much
slower than other loss functions. Finally, we analyze how well neural networks
can identify adversarial perturbations generated by the attacks under
consideration, hereby revisiting the idea of adversarial retraining on
ImageNet.
- Abstract(参考訳): 敵対的な例の発見とディープラーニングモデルへの悪影響の後、多くの研究はこれらの注意深く作られたサンプルを生成するためのより多様な方法を見つけることに焦点を当てた。
本論文では, 防御機構に対する敵の例生成法の有効性に関する実証実験結果について述べるが, これらの敵の攻撃の理論的特性と摂動効果の詳細な研究は, ほとんど行われていない。
本稿では,L-BFGS攻撃,Iterative Fast Gradient Sign攻撃,Carliini & Wagner's attack (CW) の3つの一般的な例生成手法の目的機能について検討する。
具体的には、ImageNetデータセットに大規模な実験結果を配置しながら、上記攻撃の基盤となる損失関数の比較および形式解析を行う。
本分析は,(1)クロスエントロピー損失の制約付き最適化空間と高速な最適化速度,(2)クロスエントロピー損失のシグネチャを最適化精度および最適化空間に用いた有害な効果,(3)対向性の観点からのロジット損失の遅い最適化速度を明らかにする。
実験により,逆行例の生成速度が速いと考えられる反復的高速勾配符号攻撃は,同一摂動設定において逆行例を作成するのに必要な反復回数において最悪の攻撃であることが明らかとなった。
さらに,本実験は,他の敵攻撃よりもかなり遅いと批判されているCWの損失関数が,他の損失関数よりもそれほど遅くないことを示す。
最後に,imagenet上での逆リトレーニングの考え方を再検討し,ニューラルネットワークによる攻撃によって生じる逆行性摂動の同定方法について分析する。
関連論文リスト
- Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - A Multi-objective Memetic Algorithm for Auto Adversarial Attack
Optimization Design [1.9100854225243937]
良く設計された敵防衛戦略は、敵の例に対するディープラーニングモデルの堅牢性を改善することができる。
防御モデルを考えると、計算負担が少なく、ロバストな精度の低い効率的な敵攻撃を更に活用する必要がある。
本稿では,防衛モデルに対する準最適攻撃の自動探索を実現する自動対向攻撃最適化設計のための多目的メメティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:03:05Z) - Hessian-Free Second-Order Adversarial Examples for Adversarial Learning [6.835470949075655]
厳密に設計された敵の例による敵の学習は、そのような攻撃に対して最も効果的な方法の1つである。
既存のほとんどの逆例生成法は1次勾配に基づいており、モデルのロバスト性を改善することはほとんどできない。
そこで我々は,この問題をKrylov部分空間の最適化に変換することで,計算複雑性を著しく低減し,学習手順を高速化する近似法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:29:27Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Towards Understanding the Dynamics of the First-Order Adversaries [40.54670072901657]
ニューラルネットワークの弱点として認識されているのは、入力に対する敵の摂動に対する脆弱性である。
最も一般的な防御機構の1つは、投射された上昇を使って入力の制約された摂動による損失を最大化し、重量を最小化することである。
二次的損失を有する2層ニューラルネットワークの逆方向の非凹面環境について検討する。
論文 参考訳(メタデータ) (2020-10-20T22:20:53Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - On the Loss Landscape of Adversarial Training: Identifying Challenges
and How to Overcome Them [57.957466608543676]
機械学習モデルの損失景観に及ぼす対人訓練の影響を解析する。
曲率の増加と散乱勾配の増大により, 対向損失景観は最適化にはあまり好ましくないことを示す。
論文 参考訳(メタデータ) (2020-06-15T13:50:23Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。