論文の概要: Provably robust deep generative models
- arxiv url: http://arxiv.org/abs/2004.10608v1
- Date: Wed, 22 Apr 2020 14:47:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:19:40.200418
- Title: Provably robust deep generative models
- Title(参考訳): 潜在的に堅牢な深層生成モデル
- Authors: Filipe Condessa, Zico Kolter
- Abstract要約: 本稿では,確率的に堅牢な生成モデル,特に可変オートエンコーダ(VAE)の確率的に堅牢なバージョンを訓練する手法を提案する。
敵攻撃に対して極めて堅牢な生成モデルを生成することができることを示す。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in adversarial attacks has developed provably robust methods for
training deep neural network classifiers. However, although they are often
mentioned in the context of robustness, deep generative models themselves have
received relatively little attention in terms of formally analyzing their
robustness properties. In this paper, we propose a method for training provably
robust generative models, specifically a provably robust version of the
variational auto-encoder (VAE). To do so, we first formally define a
(certifiably) robust lower bound on the variational lower bound of the
likelihood, and then show how this bound can be optimized during training to
produce a robust VAE. We evaluate the method on simple examples, and show that
it is able to produce generative models that are substantially more robust to
adversarial attacks (i.e., an adversary trying to perturb inputs so as to
drastically lower their likelihood under the model).
- Abstract(参考訳): 敵攻撃の最近の研究は、ディープニューラルネットワーク分類器を訓練するための実証可能な堅牢な手法を開発した。
しかしながら、それらは頑健性という文脈でしばしば言及されるが、深層生成モデル自体がロバスト性特性を形式的に分析する観点では比較的注目されていない。
本稿では,確率的ロバストな生成モデル,特に可変オートエンコーダ(VAE)の確率的ロバストなバージョンを訓練する手法を提案する。
そのため、まず、確率の変動的下界に(確実に)頑健な下界を正式に定義し、次に、この境界をトレーニング中にどのように最適化してロバストなVAEを生成するかを示す。
本手法を簡単な例で評価し, 敵攻撃に対して極めて堅牢な生成モデル(すなわち, 敵が入力を摂動させてその可能性を大幅に低下させる)を生成可能であることを示す。
関連論文リスト
- Extreme Miscalibration and the Illusion of Adversarial Robustness [70.24478307317523]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Generating Less Certain Adversarial Examples Improves Robust
Generalization [24.728981834558926]
我々は、敵の訓練中に発生する過信モデルが潜在的な原因であると主張している。
我々は、逆摂動入力を生成できるモデルを探すために、逆行訓練フレームワークに段階的なステップを組み込んだ。
論文 参考訳(メタデータ) (2023-10-06T19:06:13Z) - Robust Classification via a Single Diffusion Model [35.7344811522553]
ロバスト拡散(RDC)は、事前訓練された拡散モデルから構築され、逆向きに堅牢である。
RDCはそれまでの最先端の対人訓練モデルを2.34%以上上回っている。
本研究は, 逆方向の堅牢性に拡散モデルを用いることにより, 生成型分類器の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-05-24T15:25:19Z) - A Prompting-based Approach for Adversarial Example Generation and
Robustness Enhancement [18.532308729844598]
我々は,NLPモデルに侵入する新たなプロンプトベースの敵攻撃を提案する。
悪質な目的によってマスク・アンド・フィリングによって敵の例を生成する。
本手法は, 逆方向のサンプルを生成するのではなく, 大規模トレーニングセットに効率的に適用することができる。
論文 参考訳(メタデータ) (2022-03-21T03:21:32Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - Affine-Invariant Robust Training [0.0]
本研究は,空間的ロバスト性に関する研究をレビューし,入力毎に最悪のアフィン変換を求めるため,ゼロ階最適化アルゴリズムを提案する。
提案手法は,頑健なモデルを効果的に生成し,非パラメトリック逆摂動の導入を可能にする。
論文 参考訳(メタデータ) (2020-10-08T18:59:19Z) - Regularizers for Single-step Adversarial Training [49.65499307547198]
本稿では,1ステップの対数学習手法を用いて,ロバストモデル学習を支援する3種類の正則化器を提案する。
正規化器は、ロバストモデルと擬ロバストモデルとを区別する特性を利用することにより、勾配マスキングの効果を緩和する。
論文 参考訳(メタデータ) (2020-02-03T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。