論文の概要: Improving the Transferability of Adversarial Examples with the Adam
Optimizer
- arxiv url: http://arxiv.org/abs/2012.00567v1
- Date: Tue, 1 Dec 2020 15:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:47:30.830771
- Title: Improving the Transferability of Adversarial Examples with the Adam
Optimizer
- Title(参考訳): アダム最適化器による逆例の伝達性向上
- Authors: Heng Yin, Hengwei Zhang, Jindong Wang and Ruiyu Dou
- Abstract要約: 本研究は、改良されたアダム勾配降下法と反復勾配に基づく攻撃法を組み合わせたものである。
ImageNetの実験により,提案手法は既存の反復法よりも攻撃成功率が高いことが示された。
我々の最高のブラックボックス攻撃は、通常訓練されたネットワークで81.9%、敵訓練されたネットワークで38.7%の成功率を達成した。
- 参考スコア(独自算出の注目度): 11.210560572849383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks have outperformed humans in image recognition
tasks, but they remain vulnerable to attacks from adversarial examples. Since
these data are produced by adding imperceptible noise to normal images, their
existence poses potential security threats to deep learning systems.
Sophisticated adversarial examples with strong attack performance can also be
used as a tool to evaluate the robustness of a model. However, the success rate
of adversarial attacks remains to be further improved in black-box
environments. Therefore, this study combines an improved Adam gradient descent
algorithm with the iterative gradient-based attack method. The resulting Adam
Iterative Fast Gradient Method is then used to improve the transferability of
adversarial examples. Extensive experiments on ImageNet showed that the
proposed method offers a higher attack success rate than existing iterative
methods. Our best black-box attack achieved a success rate of 81.9% on a
normally trained network and 38.7% on an adversarially trained network.
- Abstract(参考訳): 畳み込みニューラルネットワークは、画像認識タスクにおいて人間を上回っているが、敵からの攻撃に対して脆弱である。
これらのデータは通常の画像に不可避なノイズを加えることで生成されるため、その存在はディープラーニングシステムに潜在的なセキュリティの脅威をもたらす。
強力な攻撃性能を持つ高度な敵の例は、モデルの堅牢性を評価するツールとしても使用できる。
しかし、ブラックボックス環境では敵の攻撃の成功率がさらに向上している。
そこで本研究では,改良されたアダム勾配降下アルゴリズムと反復勾配に基づく攻撃法を組み合わせた。
得られたAdam Iterative Fast Gradient Methodは、逆例の転送性を改善するために使用される。
ImageNetの大規模な実験により,提案手法は既存の反復手法よりも高い攻撃成功率を示すことが示された。
我々の最高のブラックボックス攻撃は、通常訓練されたネットワークで81.9%、敵訓練されたネットワークで38.7%の成功率を達成した。
関連論文リスト
- Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Improving Adversarial Transferability with Gradient Refining [7.045900712659982]
逆の例は、人間の知覚できない摂動を原画像に加えることによって作られる。
ディープニューラルネットワークは、原画像に人間に知覚不能な摂動を加えることによって作られる逆転例に対して脆弱である。
論文 参考訳(メタデータ) (2021-05-11T07:44:29Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Making Adversarial Examples More Transferable and Indistinguishable [7.885043234081768]
本稿では,高い転送性を有する不明瞭な逆例を生成する手法を提案する。
我々の最も優れた転送ベース攻撃NI-TI-DI-AITMは、89.3%の平均的な成功率で6つの古典的な防衛モデルを騙すことができる。
論文 参考訳(メタデータ) (2020-07-08T01:12:56Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。