論文の概要: Improving Robustness of Adversarial Attacks Using an Affine-Invariant
Gradient Estimator
- arxiv url: http://arxiv.org/abs/2109.05820v1
- Date: Mon, 13 Sep 2021 09:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:59:13.007415
- Title: Improving Robustness of Adversarial Attacks Using an Affine-Invariant
Gradient Estimator
- Title(参考訳): Affine-invariant Gradient Estimator を用いた敵攻撃のロバスト性向上
- Authors: Wenzhao Xiang, Hang Su, Chang Liu, Yandong Guo, Shibao Zheng
- Abstract要約: 敵対的な例は、知覚不能な摂動で応答を著しく変化させることで、ディープニューラルネットワーク(DNN)を欺くことができる。
既存の敵の例のほとんどは、結果の例にアフィン変換を適用すると、悪意のある機能を維持できない。
本稿では,アフィン変換の分布に対して頑健な逆数例を一貫して構築できるアフィン不変逆数攻撃を提案する。
- 参考スコア(独自算出の注目度): 15.863109283735625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples can deceive a deep neural network (DNN) by significantly
altering its response with imperceptible perturbations, which poses new
potential vulnerabilities as the growing ubiquity of DNNs. However, most of the
existing adversarial examples cannot maintain the malicious functionality if we
apply an affine transformation on the resultant examples, which is an important
measurement to the robustness of adversarial attacks for the practical risks.
To address this issue, we propose an affine-invariant adversarial attack which
can consistently construct adversarial examples robust over a distribution of
affine transformation. To further improve the efficiency, we propose to
disentangle the affine transformation into rotations, translations,
magnifications, and reformulate the transformation in polar space. Afterwards,
we construct an affine-invariant gradient estimator by convolving the gradient
at the original image with derived kernels, which can be integrated with any
gradient-based attack methods. Extensive experiments on the ImageNet
demonstrate that our method can consistently produce more robust adversarial
examples under significant affine transformations, and as a byproduct, improve
the transferability of adversarial examples compared with the alternative
state-of-the-art methods.
- Abstract(参考訳): 敵対的な例は、認識不能な摂動によって応答を著しく変化させることで、ディープニューラルネットワーク(DNN)を欺くことができる。
しかし、既存の敵のほとんどの例は、実際のリスクに対する敵の攻撃の堅牢性にとって重要な指標であるアフィン変換を適用すると、悪意のある機能を維持できない。
この問題に対処するために,アフィン変換の分布上に頑健な逆例を一貫して構築できるアフィン不変逆攻撃を提案する。
さらに効率を向上させるために,アフィン変換を回転,変換,拡大,極空間での変換を再構成する手法を提案する。
その後、元の画像の勾配を任意の勾配に基づく攻撃法と統合できる派生したカーネルに畳み込み、アフィン不変勾配推定器を構築する。
ImageNet での広範囲な実験により,本手法はアフィン変換においてより堅牢な対向例を連続的に生成し,副産物として,代替手法と比較して対向例の移動性を向上させることができることが示された。
関連論文リスト
- Improving the Transferability of Adversarial Examples by Feature Augmentation [6.600860987969305]
本稿では,計算コストの増大を伴わずに,対向移動性を向上する簡易かつ効果的な機能拡張攻撃法を提案する。
具体的には、攻撃勾配の多様性を増大させるために、モデルの中間特徴にランダムノイズを注入する。
提案手法は,既存の勾配攻撃と組み合わせることで,さらなる性能向上を図ることができる。
論文 参考訳(メタデータ) (2024-07-09T09:41:40Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Fuzziness-tuned: Improving the Transferability of Adversarial Examples [18.880398046794138]
敵対的な例は、ディープニューラルネットワークにおけるトレーニングモデルの堅牢性を高めるために広く使用されている。
代理モデルに対するトランスファーベース攻撃の攻撃成功率は、低攻撃強度下の犠牲者モデルよりもはるかに高い。
ファジィ領域から効果的に外れるようにファジィ調整法が提案されている。
論文 参考訳(メタデータ) (2023-03-17T16:00:18Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Improving Adversarial Transferability with Scheduled Step Size and Dual
Example [33.00528131208799]
反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
論文 参考訳(メタデータ) (2023-01-30T15:13:46Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Comment on Transferability and Input Transformation with Additive Noise [6.168976174718275]
加算雑音による伝達性と入力変換の関係を解析する。
良心的な例に小さな摂動を加えることで、敵対的な攻撃は、ディープラーニングモデルの誤分類につながる敵の例をうまく生成する。
論文 参考訳(メタデータ) (2022-06-18T00:52:27Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。