論文の概要: Adversarial Purification through Representation Disentanglement
- arxiv url: http://arxiv.org/abs/2110.07801v1
- Date: Fri, 15 Oct 2021 01:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:55:10.959431
- Title: Adversarial Purification through Representation Disentanglement
- Title(参考訳): Representation Disentanglement による敵対的浄化
- Authors: Tao Bai, Jun Zhao, Lanqing Guo, Bihan Wen
- Abstract要約: ディープラーニングモデルは敵の例に弱いため、理解不能な間違いを犯す。
現在の防御法、特に浄化法は、自然画像の学習と復元によってノイズを除去する傾向がある。
本研究では, 自然画像の乱れと逆流を前処理防御として提示し, 新たな逆流浄化法を提案する。
- 参考スコア(独自算出の注目度): 21.862799765511976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are vulnerable to adversarial examples and make
incomprehensible mistakes, which puts a threat on their real-world deployment.
Combined with the idea of adversarial training, preprocessing-based defenses
are popular and convenient to use because of their task independence and good
generalizability. Current defense methods, especially purification, tend to
remove ``noise" by learning and recovering the natural images. However,
different from random noise, the adversarial patterns are much easier to be
overfitted during model training due to their strong correlation to the images.
In this work, we propose a novel adversarial purification scheme by presenting
disentanglement of natural images and adversarial perturbations as a
preprocessing defense. With extensive experiments, our defense is shown to be
generalizable and make significant protection against unseen strong adversarial
attacks. It reduces the success rates of state-of-the-art \textbf{ensemble}
attacks from \textbf{61.7\%} to \textbf{14.9\%} on average, superior to a
number of existing methods. Notably, our defense restores the perturbed images
perfectly and does not hurt the clean accuracy of backbone models, which is
highly desirable in practice.
- Abstract(参考訳): ディープラーニングモデルは、敵の例に対して脆弱で、理解不能な間違いを犯し、現実のデプロイメントに脅威を与える。
対人訓練の考え方と相まって、前処理ベースの防御は、タスク独立性と優れた一般化性のために人気があり、使いやすい。
現在の防御法、特に浄化法は、自然画像の学習と復元によって「ノイズ」を取り除く傾向がある。
しかし, ランダムノイズと異なり, 画像との相関が強いため, モデルトレーニングにおいて, 逆方向のパターンが過度に適合しやすい。
そこで本研究では, 自然画像の絡み合いと逆摂動を前処理防御として提示し, 新たな逆境浄化手法を提案する。
広範な実験により、我々の防御は一般化し、目に見えない強力な敵の攻撃に対して重大な防御をすることが示される。
これは、最先端の \textbf{ensemble} 攻撃の成功率を、既存の多くのメソッドよりも平均で \textbf{61.7\%} から \textbf{14.9\%} に下げる。
特に、我々の防御は乱れた画像を完全に復元し、実際には非常に望ましいバックボーンモデルのクリーンな精度を損なわない。
関連論文リスト
- High-Frequency Anti-DreamBooth: Robust Defense against Personalized Image Synthesis [12.555117983678624]
本稿では, 画像の高周波領域に強い摂動を付加し, 対向的浄化をより堅牢にする新たな対向的攻撃法を提案する。
実験の結果, 敵画像は, 敵画像の浄化後もノイズを保ち, 悪意のある画像生成を妨げていることがわかった。
論文 参考訳(メタデータ) (2024-09-12T15:58:28Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - F$^2$AT: Feature-Focusing Adversarial Training via Disentanglement of
Natural and Perturbed Patterns [74.03108122774098]
ディープニューラルネットワーク(DNN)は、よく設計された摂動によって構築された敵の例に対して脆弱である。
これは、自動運転車、監視セキュリティ、医療診断などの重要な応用について、悲惨な結果をもたらす可能性がある。
本稿では,自然パターンから中心となる特徴に焦点を合わせ,モデルに焦点をあてる機能集中型適応訓練(F$2$AT)を提案する。
論文 参考訳(メタデータ) (2023-10-23T04:31:42Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - ARIA: Adversarially Robust Image Attribution for Content Provenance [25.217001579437635]
本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
論文 参考訳(メタデータ) (2022-02-25T18:11:45Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。