論文の概要: Adversarial Purification through Representation Disentanglement
- arxiv url: http://arxiv.org/abs/2110.07801v1
- Date: Fri, 15 Oct 2021 01:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:55:10.959431
- Title: Adversarial Purification through Representation Disentanglement
- Title(参考訳): Representation Disentanglement による敵対的浄化
- Authors: Tao Bai, Jun Zhao, Lanqing Guo, Bihan Wen
- Abstract要約: ディープラーニングモデルは敵の例に弱いため、理解不能な間違いを犯す。
現在の防御法、特に浄化法は、自然画像の学習と復元によってノイズを除去する傾向がある。
本研究では, 自然画像の乱れと逆流を前処理防御として提示し, 新たな逆流浄化法を提案する。
- 参考スコア(独自算出の注目度): 21.862799765511976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are vulnerable to adversarial examples and make
incomprehensible mistakes, which puts a threat on their real-world deployment.
Combined with the idea of adversarial training, preprocessing-based defenses
are popular and convenient to use because of their task independence and good
generalizability. Current defense methods, especially purification, tend to
remove ``noise" by learning and recovering the natural images. However,
different from random noise, the adversarial patterns are much easier to be
overfitted during model training due to their strong correlation to the images.
In this work, we propose a novel adversarial purification scheme by presenting
disentanglement of natural images and adversarial perturbations as a
preprocessing defense. With extensive experiments, our defense is shown to be
generalizable and make significant protection against unseen strong adversarial
attacks. It reduces the success rates of state-of-the-art \textbf{ensemble}
attacks from \textbf{61.7\%} to \textbf{14.9\%} on average, superior to a
number of existing methods. Notably, our defense restores the perturbed images
perfectly and does not hurt the clean accuracy of backbone models, which is
highly desirable in practice.
- Abstract(参考訳): ディープラーニングモデルは、敵の例に対して脆弱で、理解不能な間違いを犯し、現実のデプロイメントに脅威を与える。
対人訓練の考え方と相まって、前処理ベースの防御は、タスク独立性と優れた一般化性のために人気があり、使いやすい。
現在の防御法、特に浄化法は、自然画像の学習と復元によって「ノイズ」を取り除く傾向がある。
しかし, ランダムノイズと異なり, 画像との相関が強いため, モデルトレーニングにおいて, 逆方向のパターンが過度に適合しやすい。
そこで本研究では, 自然画像の絡み合いと逆摂動を前処理防御として提示し, 新たな逆境浄化手法を提案する。
広範な実験により、我々の防御は一般化し、目に見えない強力な敵の攻撃に対して重大な防御をすることが示される。
これは、最先端の \textbf{ensemble} 攻撃の成功率を、既存の多くのメソッドよりも平均で \textbf{61.7\%} から \textbf{14.9\%} に下げる。
特に、我々の防御は乱れた画像を完全に復元し、実際には非常に望ましいバックボーンモデルのクリーンな精度を損なわない。
関連論文リスト
- F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - IRAD: Implicit Representation-driven Image Resampling against
Adversarial Attacks [17.565882933884893]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - ARIA: Adversarially Robust Image Attribution for Content Provenance [25.217001579437635]
本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
論文 参考訳(メタデータ) (2022-02-25T18:11:45Z) - Towards Robust Neural Image Compression: Adversarial Attack and Model
Finetuning [30.36695754075178]
ディープニューラルネットワークに基づく画像圧縮は広く研究されている。
そこで,本研究では,未知の逆方向の摂動を原画像に注入することにより,一般的な画像圧縮モデルの堅牢性を検討する。
幾何的自己アンサンブルに基づく事前処理や敵の訓練を含む様々な防衛戦略を、敵の攻撃に対して検討し、モデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-12-16T08:28:26Z) - Delving into Deep Image Prior for Adversarial Defense: A Novel
Reconstruction-based Defense Framework [34.75025893777763]
本研究は, より深いイメージを掘り下げることによる, 新規かつ効果的な再構築型防御フレームワークを提案する。
提案手法は, モデル決定過程を分析し, 明示的に記述する。
実験により,提案手法は,ホワイトボックス攻撃とディフェンスアウェア攻撃の両面において,既存の最先端の再構築手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-31T08:49:17Z) - Improving White-box Robustness of Pre-processing Defenses via Joint
Adversarial Training [159.69490269760576]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。