論文の概要: Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models
- arxiv url: http://arxiv.org/abs/2102.07364v1
- Date: Mon, 15 Feb 2021 06:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:37:13.841773
- Title: Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models
- Title(参考訳): ディープジェネラティブモデルを用いた逆問題の中間層最適化
- Authors: Giannis Daras, Joseph Dean, Ajil Jalal, Alexandros G. Dimakis
- Abstract要約: ILOは、深層生成モデルを用いて逆問題を解決するための新しい最適化アルゴリズムである。
提案手法は,StyleGAN-2 や PULSE で導入した最先端手法よりも幅広い逆問題に対して優れていることを示す。
- 参考スコア(独自算出の注目度): 86.29330440222199
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose Intermediate Layer Optimization (ILO), a novel optimization
algorithm for solving inverse problems with deep generative models. Instead of
optimizing only over the initial latent code, we progressively change the input
layer obtaining successively more expressive generators. To explore the higher
dimensional spaces, our method searches for latent codes that lie within a
small $l_1$ ball around the manifold induced by the previous layer. Our
theoretical analysis shows that by keeping the radius of the ball relatively
small, we can improve the established error bound for compressed sensing with
deep generative models. We empirically show that our approach outperforms
state-of-the-art methods introduced in StyleGAN-2 and PULSE for a wide range of
inverse problems including inpainting, denoising, super-resolution and
compressed sensing.
- Abstract(参考訳): 深層生成モデルを用いた逆問題を解くための新しい最適化アルゴリズムである中間層最適化(ILO)を提案する。
初期潜在コードのみを最適化するのではなく、徐々に入力層を変更し、より表現力のあるジェネレータを得る。
高次元空間を探索するために、前層によって誘導される多様体の周りの小さな$l_1$球内にある潜在符号を探索する。
理論解析により、球の半径を比較的小さく抑えることで、深層生成モデルによる圧縮センシングの既成誤差を改善できることが示された。
提案手法は, インペイント, デノナイジング, 超高分解能, 圧縮センシングなど, 幅広い逆問題に対して, StyleGAN-2 と PULSE で導入した最先端手法よりも優れていることを示す。
関連論文リスト
- Accelerating Inverse Learning via Intelligent Localization with
Exploratory Sampling [1.5976506570992293]
逆問題の解決は 物質と薬物発見の 長年の課題です
近年,逆問題の解法として深部生成モデルが提案されている。
逆学習を高速化する新しい手法(iPage)を提案する。
論文 参考訳(メタデータ) (2022-12-02T08:00:04Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Score-Guided Intermediate Layer Optimization: Fast Langevin Mixing for
Inverse Problem [97.64313409741614]
ランダム重み付きDNNジェネレータを反転させるため,Langevinアルゴリズムの定常分布を高速に混合し,特徴付ける。
本稿では,事前学習した生成モデルの潜時空間における後部サンプリングを提案する。
論文 参考訳(メタデータ) (2022-06-18T03:47:37Z) - Improved Convergence Rate of Stochastic Gradient Langevin Dynamics with
Variance Reduction and its Application to Optimization [50.83356836818667]
勾配ランゲヴィン・ダイナミクスは非エプス最適化問題を解くための最も基本的なアルゴリズムの1つである。
本稿では、このタイプの2つの変種、すなわち、分散還元ランジュバンダイナミクスと再帰勾配ランジュバンダイナミクスを示す。
論文 参考訳(メタデータ) (2022-03-30T11:39:00Z) - Regularized Training of Intermediate Layers for Generative Models for
Inverse Problems [9.577509224534323]
生成モデルが中間層最適化に基づくアルゴリズムを用いた逆変換を意図している場合、それらの中間層を正規化する方法で訓練すべきである。
我々はこの原理を、中間層最適化(Intermediate Layer Optimization)とMulti-Code GAN(Multi-Code GAN)という、2つの注目すべきインバージョンアルゴリズムのインスタンス化を行う。
これら2つの逆アルゴリズムに対して、新しい正規化GANトレーニングアルゴリズムを導入し、学習した生成モデルがサンプリング比の広い範囲にわたる再構成誤差を低くすることを示した。
論文 参考訳(メタデータ) (2022-03-08T20:30:49Z) - Differentiable Gaussianization Layers for Inverse Problems Regularized
by Deep Generative Models [0.0]
深部生成モデルの潜時テンソルは、反転中に所望の高次元標準ガウス分布から外れる可能性があることを示す。
提案手法は精度と整合性の観点から最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-07T17:53:09Z) - SHINE: SHaring the INverse Estimate from the forward pass for bi-level
optimization and implicit models [15.541264326378366]
近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。
トレーニングは双レベル問題として実行され、その計算複雑性は巨大なヤコビ行列の反復反転によって部分的に駆動される。
本稿では,この計算ボトルネックに対処する新たな手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T15:07:34Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。