論文の概要: An Eye for an Eye: Defending against Gradient-based Attacks with
Gradients
- arxiv url: http://arxiv.org/abs/2202.01117v1
- Date: Wed, 2 Feb 2022 16:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:18:34.375238
- Title: An Eye for an Eye: Defending against Gradient-based Attacks with
Gradients
- Title(参考訳): 目のための眼:勾配を持つ勾配に基づく攻撃から防御する
- Authors: Hanbin Hong, Yuan Hong, and Yu Kong
- Abstract要約: 勾配に基づく敵攻撃は高い成功率を示している。
この勾配は、敵の攻撃から防御するための強力な武器として利用することもできる。
勾配図と逆画像の両方を入力として使用することにより、逆画像の復元を行う2ストリーム復元ネットワーク(TRN)を提案する。
- 参考スコア(独自算出の注目度): 24.845539113785552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have been shown to be vulnerable to adversarial attacks.
In particular, gradient-based attacks have demonstrated high success rates
recently. The gradient measures how each image pixel affects the model output,
which contains critical information for generating malicious perturbations. In
this paper, we show that the gradients can also be exploited as a powerful
weapon to defend against adversarial attacks. By using both gradient maps and
adversarial images as inputs, we propose a Two-stream Restoration Network (TRN)
to restore the adversarial images. To optimally restore the perturbed images
with two streams of inputs, a Gradient Map Estimation Mechanism is proposed to
estimate the gradients of adversarial images, and a Fusion Block is designed in
TRN to explore and fuse the information in two streams. Once trained, our TRN
can defend against a wide range of attack methods without significantly
degrading the performance of benign inputs. Also, our method is generalizable,
scalable, and hard to bypass. Experimental results on CIFAR10, SVHN, and
Fashion MNIST demonstrate that our method outperforms state-of-the-art defense
methods.
- Abstract(参考訳): ディープラーニングモデルは敵の攻撃に弱いことが示されている。
特に勾配に基づく攻撃は近年高い成功率を示している。
この勾配は、悪質な摂動を生成するための重要な情報を含むモデル出力に、各画像ピクセルがどのように影響するかを測定する。
本稿では,この勾配を,敵の攻撃から守るための強力な武器としても活用できることを示す。
グラデーションマップと逆画像の両方を入力として,逆画像復元のための2ストリーム復元ネットワーク(trn)を提案する。
2つの入力ストリームで摂動画像を最適に復元するために、逆画像の勾配を推定する勾配マップ推定機構が提案され、TRNでは2つのストリームで情報を探索して融合するためにFusion Blockが設計されている。
訓練されたtrnは、良質な入力のパフォーマンスを著しく低下させることなく、幅広い攻撃方法に対して防御することができる。
また,本手法は一般化可能で,拡張性があり,バイパスが難しい。
CIFAR10,SVHN,Fashion MNISTの実験結果から,本手法が最先端の防御方法より優れていることが示された。
関連論文リスト
- Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts [23.279652897139286]
ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
論文 参考訳(メタデータ) (2024-04-12T09:13:37Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Encryption Inspired Adversarial Defense for Visual Classification [17.551718914117917]
本稿では,画像暗号化方式に触発された新たな敵防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
精度が高い(クリーン画像91.55、CIFAR-10データセットでノイズ距離8/255の逆例89.66)。
論文 参考訳(メタデータ) (2020-05-16T14:18:07Z) - Towards Sharper First-Order Adversary with Quantized Gradients [43.02047596005796]
敵の訓練は最も成功した 敵の攻撃に対する防御だった
最先端の1次攻撃では、符号勾配を持つ逆例は各勾配成分の符号情報を保持するが、成分間の相対等級は捨てる。
勾配量子化は符号情報を保存するだけでなく、成分間の相対等級も保持する。
論文 参考訳(メタデータ) (2020-02-01T14:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。