論文の概要: When and How Can Deep Generative Models be Inverted?
- arxiv url: http://arxiv.org/abs/2006.15555v1
- Date: Sun, 28 Jun 2020 09:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 01:57:03.455712
- Title: When and How Can Deep Generative Models be Inverted?
- Title(参考訳): ディープジェネレーティブモデルはいつ、どのように反転できるのか?
- Authors: Aviad Aberdam, Dror Simon, Michael Elad
- Abstract要約: 近年, 深部生成モデル (GAN, VAE) が盛んに開発されている。
我々は、そのような生成モデルが可逆である任意の逆アルゴリズム(漸進降下、ディープエンコーダなど)に適用可能な条件を定義する。
本手法は, クリーン信号と劣化信号の両方に対して, 発生器を反転させる際の勾配勾配よりも優れることを示す。
- 参考スコア(独自算出の注目度): 28.83334026125828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models (e.g. GANs and VAEs) have been developed quite
extensively in recent years. Lately, there has been an increased interest in
the inversion of such a model, i.e. given a (possibly corrupted) signal, we
wish to recover the latent vector that generated it. Building upon sparse
representation theory, we define conditions that are applicable to any
inversion algorithm (gradient descent, deep encoder, etc.), under which such
generative models are invertible with a unique solution. Importantly, the
proposed analysis is applicable to any trained model, and does not depend on
Gaussian i.i.d. weights. Furthermore, we introduce two layer-wise inversion
pursuit algorithms for trained generative networks of arbitrary depth, and
accompany these with recovery guarantees. Finally, we validate our theoretical
results numerically and show that our method outperforms gradient descent when
inverting such generators, both for clean and corrupted signals.
- Abstract(参考訳): 深層生成モデル(例えば、GANやVAE)は近年広く開発されている。
近年、そのようなモデルの反転、すなわち(潜在的に破損した)信号が与えられたとき、我々はそれを生成した潜在ベクトルを回復したいという関心が高まっている。
スパース表現理論に基づいて、そのような生成モデルが一意解で可逆であるような任意の逆アルゴリズム(漸進降下、ディープエンコーダなど)に適用可能な条件を定義する。
さらに,本解析はトレーニングモデルに適用可能であり,ガウスのi.i.d.重みには依存しない。
さらに,任意の深さの訓練された生成ネットワークに対する2つの層逆追従アルゴリズムを導入し,それらに回復保証を付加する。
最後に, 提案手法は, クリーン信号と破損信号の両方に対して, 逆発生器の勾配降下特性より優れていることを示す。
関連論文リスト
- Outlier Detection Using Generative Models with Theoretical Performance
Guarantees [11.985270449383272]
出力器の存在下で生成モデルを用いて信号の復元を理論的に保証する。
この結果は、線形生成ニューラルネットワークと、任意の数の層を持つ非線形生成ニューラルネットワークの両方に適用できる。
論文 参考訳(メタデータ) (2023-10-16T01:25:34Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Differentiable Gaussianization Layers for Inverse Problems Regularized by Deep Generative Models [5.439020425819001]
深部生成モデルの潜時テンソルは、反転中に所望の高次元標準ガウス分布から外れる可能性があることを示す。
提案手法は精度と整合性の観点から最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-07T17:53:09Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Hidden Convexity of Wasserstein GANs: Interpretable Generative Models
with Closed-Form Solutions [31.952858521063277]
凸双対レンズを用いた2層ニューラルネットワーク判別器によるワッサースタインGANの影響を解析した。
さらに、識別器の異なる活性化機能のパワーを実証する。
論文 参考訳(メタデータ) (2021-07-12T18:33:49Z) - The Effects of Invertibility on the Representational Complexity of
Encoders in Variational Autoencoders [16.27499951949733]
生成写像が「強可逆(strongly invertible)」であれば、推論モデルはそれほど複雑ではないことを示す。
重要なのは、生成モデルが階層的に可逆である必要はないということです。
低次元多様体上にデータを置くと、深層生成モデルの学習が難しくなるという経験的知恵を理論的に支持する。
論文 参考訳(メタデータ) (2021-07-09T19:53:29Z) - Provable Compressed Sensing with Generative Priors via Langevin Dynamics [43.59745920150787]
本稿では,SGLD(Grag Langevin dynamics)の圧縮センシングへの応用について述べる。
生成モデル上の軽度の仮定の下で、我々は真の信号へのSGLDの収束を証明する。
論文 参考訳(メタデータ) (2021-02-25T02:35:14Z) - Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models [86.29330440222199]
ILOは、深層生成モデルを用いて逆問題を解決するための新しい最適化アルゴリズムである。
提案手法は,StyleGAN-2 や PULSE で導入した最先端手法よりも幅広い逆問題に対して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-15T06:52:22Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Robust Compressed Sensing using Generative Models [98.64228459705859]
本稿では,Median-of-Means (MOM) にヒントを得たアルゴリズムを提案する。
我々のアルゴリズムは、外れ値が存在する場合でも、重み付きデータの回復を保証する。
論文 参考訳(メタデータ) (2020-06-16T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。