論文の概要: Random Transformation of Image Brightness for Adversarial Attack
- arxiv url: http://arxiv.org/abs/2101.04321v1
- Date: Tue, 12 Jan 2021 07:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:45:20.083647
- Title: Random Transformation of Image Brightness for Adversarial Attack
- Title(参考訳): 逆攻撃に対する画像輝度のランダム変換
- Authors: Bo Yang, Kaiyong Xu, Hengjun Wang, Hengwei Zhang
- Abstract要約: 逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
- 参考スコア(独自算出の注目度): 5.405413975396116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are vulnerable to adversarial examples, which are
crafted by adding small, human-imperceptible perturbations to the original
images, but make the model output inaccurate predictions. Before deep neural
networks are deployed, adversarial attacks can thus be an important method to
evaluate and select robust models in safety-critical applications. However,
under the challenging black-box setting, the attack success rate, i.e., the
transferability of adversarial examples, still needs to be improved. Based on
image augmentation methods, we found that random transformation of image
brightness can eliminate overfitting in the generation of adversarial examples
and improve their transferability. To this end, we propose an adversarial
example generation method based on this phenomenon, which can be integrated
with Fast Gradient Sign Method (FGSM)-related methods to build a more robust
gradient-based attack and generate adversarial examples with better
transferability. Extensive experiments on the ImageNet dataset demonstrate the
method's effectiveness. Whether on normally or adversarially trained networks,
our method has a higher success rate for black-box attacks than other attack
methods based on data augmentation. We hope that this method can help to
evaluate and improve the robustness of models.
- Abstract(参考訳): ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できない摂動を加えることで構築される敵の例に弱いが、モデル出力の不正確な予測を行う。
ディープニューラルネットワークがデプロイされる前に、敵攻撃は安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し選択するための重要な方法となる。
しかし、難易度の高いブラックボックス設定では、攻撃成功率、すなわち敵の例の転送可能性を改善する必要がある。
画像拡張法に基づき、画像輝度のランダム変換により、逆例生成における過剰フィットを解消し、その転送性を向上させることが判明した。
そこで本研究では,FGSM(Fast Gradient Sign Method)関連手法と統合して,より堅牢な勾配に基づく攻撃を構築し,より優れた転送性を持つ逆例を生成する,この現象に基づく逆例生成手法を提案する。
ImageNetデータセットに関する大規模な実験は、この方法の有効性を実証している。
本手法は,通常のネットワークであろうと逆であれ,データ拡張に基づく攻撃手法よりもブラックボックス攻撃の成功率が高い。
この手法がモデルの堅牢性の評価と改善に役立つことを期待している。
関連論文リスト
- LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Improving the Transferability of Adversarial Examples with the Adam
Optimizer [11.210560572849383]
本研究は、改良されたアダム勾配降下法と反復勾配に基づく攻撃法を組み合わせたものである。
ImageNetの実験により,提案手法は既存の反復法よりも攻撃成功率が高いことが示された。
我々の最高のブラックボックス攻撃は、通常訓練されたネットワークで81.9%、敵訓練されたネットワークで38.7%の成功率を達成した。
論文 参考訳(メタデータ) (2020-12-01T15:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。