論文の概要: Pre-trained Multiple Latent Variable Generative Models are good defenders against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2412.03453v1
- Date: Wed, 04 Dec 2024 16:40:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:57.924223
- Title: Pre-trained Multiple Latent Variable Generative Models are good defenders against Adversarial Attacks
- Title(参考訳): 事前学習型多変量生成モデルは敵攻撃に対する優れた防御要因である
- Authors: Dario Serez, Marco Cristani, Alessio Del Bue, Vittorio Murino, Pietro Morerio,
- Abstract要約: 本稿では,MLVGM (Multiple Latent Variable Generative Models) が定義されている特定のジェネレータを提案する。
これらの特性を生かして、画像の自動符号化を行い、クラス関連情報を維持しながら、敵のノイズを含む詳細情報を破棄、再サンプリングする。
より小さなMLVGMはすでに従来の手法と競合しており、基礎モデルとして使用できることを示す。
- 参考スコア(独自算出の注目度): 34.061732576446246
- License:
- Abstract: Attackers can deliberately perturb classifiers' input with subtle noise, altering final predictions. Among proposed countermeasures, adversarial purification employs generative networks to preprocess input images, filtering out adversarial noise. In this study, we propose specific generators, defined Multiple Latent Variable Generative Models (MLVGMs), for adversarial purification. These models possess multiple latent variables that naturally disentangle coarse from fine features. Taking advantage of these properties, we autoencode images to maintain class-relevant information, while discarding and re-sampling any detail, including adversarial noise. The procedure is completely training-free, exploring the generalization abilities of pre-trained MLVGMs on the adversarial purification downstream task. Despite the lack of large models, trained on billions of samples, we show that smaller MLVGMs are already competitive with traditional methods, and can be used as foundation models. Official code released at https://github.com/SerezD/gen_adversarial.
- Abstract(参考訳): 攻撃者は意図的に分類者の入力を微妙な雑音で妨害し、最終的な予測を変えることができる。
提案する対策の中で, 対向浄化では, 生成ネットワークを用いて入力画像の事前処理を行い, 対向ノイズを除去する。
そこで本研究では,MLVGM (Multiple Latent Variable Generative Models) と呼ばれる特定のジェネレータを提案する。
これらのモデルは、自然に細かな特徴から粗く絡み合う複数の潜伏変数を持つ。
これらの特性を生かして、画像の自動符号化を行い、クラス関連情報を維持しながら、敵の雑音を含む詳細情報を破棄、再サンプリングする。
この手順は完全に訓練を受けず、対向的浄化作業における事前訓練されたMLVGMの一般化能力を探究する。
数十億のサンプルに基づいてトレーニングされた大規模なモデルがないにもかかわらず、より小さなMLVGMはすでに従来の手法と競合しており、基礎モデルとして使用できることを示す。
公式コードはhttps://github.com/SerezD/gen_adversarial.comで公開されている。
関連論文リスト
- ZeroPur: Succinct Training-Free Adversarial Purification [52.963392510839284]
敵の粛清は、様々な目に見えない敵の攻撃を防御できる防衛計算手法の一種である。
我々は、ZeroPurと呼ばれる、逆画像の浄化を更なる訓練なしに簡単な逆画像浄化法を提案する。
論文 参考訳(メタデータ) (2024-06-05T10:58:15Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Adversarial Text Purification: A Large Language Model Approach for
Defense [25.041109219049442]
敵の浄化は、敵の攻撃に対して分類器を保護するための防御機構である。
そこで本稿では,大規模言語モデルの生成能力を生かした,新たな逆文清浄法を提案する。
提案手法は,様々な分類器に対して顕著な性能を示し,攻撃時の精度を平均65%以上向上させる。
論文 参考訳(メタデータ) (2024-02-05T02:36:41Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - ManiGen: A Manifold Aided Black-box Generator of Adversarial Examples [4.509133544449485]
適応的な例は、人間の目によって無視される特別な摂動を持つ入力である。
ManiGen は多様体に沿って探索することで逆例を生成する。
ManiGenは、最先端の防御でより効果的に分類器を攻撃することができる。
論文 参考訳(メタデータ) (2020-07-11T17:34:17Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z) - REGroup: Rank-aggregating Ensemble of Generative Classifiers for Robust
Predictions [6.0162772063289784]
敵の訓練やランダムな入力変換を採用する防衛戦略は、合理的なパフォーマンスを達成するために、モデルの再訓練や微調整を必要とするのが普通である。
中間層の神経応答を統計的に特徴付けることにより, 生成型分類器を学習し, トレーニングサンプルをクリーンにすることができる。
提案手法は, クリーントレーニングデータのサブセットと事前学習モデルを用いており, ネットワークアーキテクチャや敵攻撃生成手法に非依存である。
論文 参考訳(メタデータ) (2020-06-18T17:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。