論文の概要: Immune Defense: A Novel Adversarial Defense Mechanism for Preventing the
Generation of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2303.04502v1
- Date: Wed, 8 Mar 2023 10:47:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 14:23:22.851243
- Title: Immune Defense: A Novel Adversarial Defense Mechanism for Preventing the
Generation of Adversarial Examples
- Title(参考訳): 免疫防御 : 敵の事例の発生を防ぐ新しい防御機構
- Authors: Jinwei Wang, Hao Wu, Haihua Wang, Jiawei Zhang, Xiangyang Luo, Bin Ma
- Abstract要約: 敵の例に対するディープニューラルネットワーク(DNN)の脆弱性が確認されている。
免疫防御と呼ばれる新しい対向防御機構を提案する。
本機構は, 原画像に対する準知覚的摂動を慎重に設計し, 対向例の発生を防止する。
- 参考スコア(独自算出の注目度): 32.649613813876954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vulnerability of Deep Neural Networks (DNNs) to adversarial examples has
been confirmed. Existing adversarial defenses primarily aim at preventing
adversarial examples from attacking DNNs successfully, rather than preventing
their generation. If the generation of adversarial examples is unregulated,
images within reach are no longer secure and pose a threat to non-robust DNNs.
Although gradient obfuscation attempts to address this issue, it has been shown
to be circumventable. Therefore, we propose a novel adversarial defense
mechanism, which is referred to as immune defense and is the example-based
pre-defense. This mechanism applies carefully designed quasi-imperceptible
perturbations to the raw images to prevent the generation of adversarial
examples for the raw images, and thereby protecting both images and DNNs. These
perturbed images are referred to as Immune Examples (IEs). In the white-box
immune defense, we provide a gradient-based and an optimization-based approach,
respectively. Additionally, the more complex black-box immune defense is taken
into consideration. We propose Masked Gradient Sign Descent (MGSD) to reduce
approximation error and stabilize the update to improve the transferability of
IEs and thereby ensure their effectiveness against black-box adversarial
attacks. The experimental results demonstrate that the optimization-based
approach has superior performance and better visual quality in white-box immune
defense. In contrast, the gradient-based approach has stronger transferability
and the proposed MGSD significantly improve the transferability of baselines.
- Abstract(参考訳): 敵の例に対するディープニューラルネットワーク(DNN)の脆弱性が確認されている。
既存の敵の防御は主に、敵がdnnをうまく攻撃することを防ぐことを目的としている。
敵の例の生成が規制されていない場合、リーチ内の画像はもはや安全ではなく、非ロバストなDNNに脅威をもたらす。
勾配難読化はこの問題に対処しようとするが、回避可能であることが示されている。
そこで本研究では,免疫防御と呼ばれる新しい対人防御機構を提案する。
本機構は、原画像に対する準知覚的摂動を慎重に設計し、原画像の逆例の発生を防止し、画像とDNNの両方を保護する。
これらの混乱したイメージを免疫例(IE)と呼ぶ。
ホワイトボックス免疫防御では、それぞれ勾配に基づくアプローチと最適化に基づくアプローチを提供する。
さらに、より複雑なブラックボックス免疫防御も考慮されている。
そこで我々は,Masked Gradient Sign Descent (MGSD)を提案し,近似誤差を低減し,IEの転送性を向上させるために更新を安定化し,ブラックボックス攻撃に対する有効性を確保する。
実験の結果, 最適化に基づくアプローチは, ホワイトボックス免疫防御において優れた性能と視覚品質を有することがわかった。
対照的に,グラデーションベースアプローチは移動性が強く,提案するmgsdはベースラインの移動性を大幅に向上させる。
関連論文リスト
- Privacy-preserving Universal Adversarial Defense for Black-box Models [20.968518031455503]
本稿では,対象モデルのパラメータやアーキテクチャへのアクセスを必要としない,汎用的なブラックボックス防御手法であるDUCDを紹介する。
このアプローチでは、データをクエリすることでターゲットモデルをクエリし、データのプライバシを保持しながら、ホワイトボックスサロゲートを生成します。
複数の画像分類データセットの実験では、DUCDは既存のブラックボックスディフェンスよりも優れており、ホワイトボックスディフェンスの精度と一致している。
論文 参考訳(メタデータ) (2024-08-20T08:40:39Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。