論文の概要: Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models
- arxiv url: http://arxiv.org/abs/2102.07364v1
- Date: Mon, 15 Feb 2021 06:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:37:13.841773
- Title: Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models
- Title(参考訳): ディープジェネラティブモデルを用いた逆問題の中間層最適化
- Authors: Giannis Daras, Joseph Dean, Ajil Jalal, Alexandros G. Dimakis
- Abstract要約: ILOは、深層生成モデルを用いて逆問題を解決するための新しい最適化アルゴリズムである。
提案手法は,StyleGAN-2 や PULSE で導入した最先端手法よりも幅広い逆問題に対して優れていることを示す。
- 参考スコア(独自算出の注目度): 86.29330440222199
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose Intermediate Layer Optimization (ILO), a novel optimization
algorithm for solving inverse problems with deep generative models. Instead of
optimizing only over the initial latent code, we progressively change the input
layer obtaining successively more expressive generators. To explore the higher
dimensional spaces, our method searches for latent codes that lie within a
small $l_1$ ball around the manifold induced by the previous layer. Our
theoretical analysis shows that by keeping the radius of the ball relatively
small, we can improve the established error bound for compressed sensing with
deep generative models. We empirically show that our approach outperforms
state-of-the-art methods introduced in StyleGAN-2 and PULSE for a wide range of
inverse problems including inpainting, denoising, super-resolution and
compressed sensing.
- Abstract(参考訳): 深層生成モデルを用いた逆問題を解くための新しい最適化アルゴリズムである中間層最適化(ILO)を提案する。
初期潜在コードのみを最適化するのではなく、徐々に入力層を変更し、より表現力のあるジェネレータを得る。
高次元空間を探索するために、前層によって誘導される多様体の周りの小さな$l_1$球内にある潜在符号を探索する。
理論解析により、球の半径を比較的小さく抑えることで、深層生成モデルによる圧縮センシングの既成誤差を改善できることが示された。
提案手法は, インペイント, デノナイジング, 超高分解能, 圧縮センシングなど, 幅広い逆問題に対して, StyleGAN-2 と PULSE で導入した最先端手法よりも優れていることを示す。
関連論文リスト
- Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Enhancing Low-Order Discontinuous Galerkin Methods with Neural Ordinary
Differential Equations for Compressible Navier--Stokes Equations [0.18648070031379424]
計算コストを削減するために、サブグリッドスケールモデルで低忠実度モデルを実行するのが一般的である。
ニューラル常微分演算子によって拡張された偏微分方程式をシミュレートする際のサブグリッドスケールモデル効果の学習法を提案する。
提案手法は,低次DGソルバの欠落スケールを連続的に学習し,低次DG近似の精度を向上させる。
論文 参考訳(メタデータ) (2023-10-29T04:26:23Z) - Solving Linear Inverse Problems Provably via Posterior Sampling with
Latent Diffusion Models [98.95988351420334]
本稿では,事前学習した潜在拡散モデルを利用した線形逆問題の解法を初めて提案する。
線形モデル設定において,証明可能なサンプル回復を示すアルゴリズムを理論的に解析する。
論文 参考訳(メタデータ) (2023-07-02T17:21:30Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Score-Guided Intermediate Layer Optimization: Fast Langevin Mixing for
Inverse Problem [97.64313409741614]
ランダム重み付きDNNジェネレータを反転させるため,Langevinアルゴリズムの定常分布を高速に混合し,特徴付ける。
本稿では,事前学習した生成モデルの潜時空間における後部サンプリングを提案する。
論文 参考訳(メタデータ) (2022-06-18T03:47:37Z) - Improving Diffusion Models for Inverse Problems using Manifold Constraints [55.91148172752894]
我々は,現在の解法がデータ多様体からサンプルパスを逸脱し,エラーが蓄積することを示す。
この問題に対処するため、多様体の制約に着想を得た追加の補正項を提案する。
本手法は理論上も経験上も従来の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-02T09:06:10Z) - Regularized Training of Intermediate Layers for Generative Models for
Inverse Problems [9.577509224534323]
生成モデルが中間層最適化に基づくアルゴリズムを用いた逆変換を意図している場合、それらの中間層を正規化する方法で訓練すべきである。
我々はこの原理を、中間層最適化(Intermediate Layer Optimization)とMulti-Code GAN(Multi-Code GAN)という、2つの注目すべきインバージョンアルゴリズムのインスタンス化を行う。
これら2つの逆アルゴリズムに対して、新しい正規化GANトレーニングアルゴリズムを導入し、学習した生成モデルがサンプリング比の広い範囲にわたる再構成誤差を低くすることを示した。
論文 参考訳(メタデータ) (2022-03-08T20:30:49Z) - Differentiable Gaussianization Layers for Inverse Problems Regularized by Deep Generative Models [5.439020425819001]
深部生成モデルの潜時テンソルは、反転中に所望の高次元標準ガウス分布から外れる可能性があることを示す。
提案手法は精度と整合性の観点から最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-12-07T17:53:09Z) - SHINE: SHaring the INverse Estimate from the forward pass for bi-level
optimization and implicit models [15.541264326378366]
近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。
トレーニングは双レベル問題として実行され、その計算複雑性は巨大なヤコビ行列の反復反転によって部分的に駆動される。
本稿では,この計算ボトルネックに対処する新たな手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T15:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。