論文の概要: Adversarial purification with Score-based generative models
- arxiv url: http://arxiv.org/abs/2106.06041v1
- Date: Fri, 11 Jun 2021 04:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:05:19.937387
- Title: Adversarial purification with Score-based generative models
- Title(参考訳): Score-based Generative Model を用いた逆浄化
- Authors: Jongmin Yoon, Sung Ju Hwang, Juho Lee
- Abstract要約: 本稿では,DSM(Denoising Score-Matching)を訓練したEMMに基づく新しい逆浄化法を提案する。
本稿では,画像にランダムノイズを注入する簡易で効果的なランダム化浄化手法を提案する。
精製法は様々な攻撃に対して堅牢であり,その最先端性能を示す。
- 参考スコア(独自算出の注目度): 56.88185136509654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While adversarial training is considered as a standard defense method against
adversarial attacks for image classifiers, adversarial purification, which
purifies attacked images into clean images with a standalone purification
model, has shown promises as an alternative defense method. Recently, an
Energy-Based Model (EBM) trained with Markov-Chain Monte-Carlo (MCMC) has been
highlighted as a purification model, where an attacked image is purified by
running a long Markov-chain using the gradients of the EBM. Yet, the
practicality of the adversarial purification using an EBM remains questionable
because the number of MCMC steps required for such purification is too large.
In this paper, we propose a novel adversarial purification method based on an
EBM trained with Denoising Score-Matching (DSM). We show that an EBM trained
with DSM can quickly purify attacked images within a few steps. We further
introduce a simple yet effective randomized purification scheme that injects
random noises into images before purification. This process screens the
adversarial perturbations imposed on images by the random noises and brings the
images to the regime where the EBM can denoise well. We show that our
purification method is robust against various attacks and demonstrate its
state-of-the-art performances.
- Abstract(参考訳): 画像分類器の敵意攻撃に対する標準的な防御法として敵意訓練が考えられる一方で、攻撃された画像を単独の浄化モデルでクリーン画像に精製する敵意浄化法が、代替防御法として期待されている。
近年,Markov-Chain Monte-Carlo (MCMC) で訓練されたEnergy-based Model (EBM) が浄化モデルとして強調され,EBMの勾配を用いて長めのMarkov-chainを走らせることで攻撃画像が浄化される。
しかし, この浄化に必要なMCMCステップの数が多すぎるため, EBMを用いた対向浄化の実用性には疑問が残る。
本稿では,Denoising Score-Matching (DSM) を訓練したEMMに基づく新しい逆浄化法を提案する。
DSMで訓練されたESMは、数ステップで迅速に攻撃画像の浄化ができることを示す。
さらに,画像にランダムノイズを注入する簡易で効果的なランダム化浄化手法を提案する。
このプロセスは、ランダムノイズによって画像に課される敵の摂動を遮蔽し、その画像をESMが正常に雑音化できる体制に導く。
本手法は様々な攻撃に対して堅牢であり,その最先端性能を示す。
関連論文リスト
- Instant Adversarial Purification with Adversarial Consistency Distillation [1.224954637705144]
拡散モデルにおける1つのニューラル評価(NFE)における逆画像の浄化が可能な拡散に基づく浄化モデルであるOne Step Control Purification (OSCP)を提案する。
ImageNetの防衛成功率は74.19%で、精製ごとに0.1秒しか必要としない。
論文 参考訳(メタデータ) (2024-08-30T07:49:35Z) - Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Adversarial Purification of Information Masking [8.253834429336656]
アドリアックは、ニューラルネットワークを騙すイメージに対して、極小で知覚不能な摂動を発生させる。
これらに対抗して、敵の入力サンプルをクリーンな出力画像に変換し、敵の攻撃を防ごうとする。
本稿では,情報マスク浄化 (IMPure) と呼ばれる新しい対向的浄化手法を提案し,対向的摂動を広範囲に排除する。
論文 参考訳(メタデータ) (2023-11-26T15:50:19Z) - Carefully Blending Adversarial Training, Purification, and Aggregation Improves Adversarial Robustness [1.2289361708127877]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法は,Cifar-10,Cifar-100,TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。