論文の概要: Composing Normalizing Flows for Inverse Problems
- arxiv url: http://arxiv.org/abs/2002.11743v3
- Date: Mon, 14 Jun 2021 18:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:52:31.578322
- Title: Composing Normalizing Flows for Inverse Problems
- Title(参考訳): 逆問題に対する正規化フローの構成
- Authors: Jay Whang, Erik M. Lindgren, Alexandros G. Dimakis
- Abstract要約: 本稿では,2つの流れモデルの合成として,対象条件を推定する近似推論フレームワークを提案する。
本手法は,様々な逆問題に対して評価し,不確実性のある高品質な試料を作製することを示した。
- 参考スコア(独自算出の注目度): 89.06155049265641
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an inverse problem with a normalizing flow prior, we wish to estimate
the distribution of the underlying signal conditioned on the observations. We
approach this problem as a task of conditional inference on the pre-trained
unconditional flow model. We first establish that this is computationally hard
for a large class of flow models. Motivated by this, we propose a framework for
approximate inference that estimates the target conditional as a composition of
two flow models. This formulation leads to a stable variational inference
training procedure that avoids adversarial training. Our method is evaluated on
a variety of inverse problems and is shown to produce high-quality samples with
uncertainty quantification. We further demonstrate that our approach can be
amortized for zero-shot inference.
- Abstract(参考訳): 正規化流れが先行する逆問題を考えると、観測に基づく基礎となる信号の分布を推定したい。
我々は,事前学習された条件付き非条件フローモデルにおける条件付き推論のタスクとしてこの問題にアプローチする。
まず,大規模なフローモデルでは計算が困難であることを示す。
そこで本研究では,2つの流れモデルの合成として,対象条件を推定する近似推論フレームワークを提案する。
この定式化は、敵対的な訓練を避ける安定した変分推論訓練手順をもたらす。
本手法は,様々な逆問題に対して評価し,不確実な定量化を施した高品質なサンプルを作成する。
我々はさらに、ゼロショット推論の手法を償却できることを実証する。
関連論文リスト
- Amortized Posterior Sampling with Diffusion Prior Distillation [55.03585818289934]
逆問題の解法として, 後方分布からのサンプルの変分推論手法を提案する。
本手法はユークリッド空間の標準信号や多様体上の信号に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-25T09:53:12Z) - Diffusion Prior-Based Amortized Variational Inference for Noisy Inverse Problems [12.482127049881026]
そこで本稿では, 償却変分推論の観点から, 拡散による逆問題の解法を提案する。
我々の償却推論は、測定結果を対応するクリーンデータの暗黙の後方分布に直接マッピングする関数を学習し、未知の計測でも単一ステップの後方サンプリングを可能にする。
論文 参考訳(メタデータ) (2024-07-23T02:14:18Z) - Deep conditional distribution learning via conditional Föllmer flow [3.227277661633986]
本研究では,条件F"ollmer Flow"という条件分布を学習するための常微分方程式(ODE)に基づく深部生成手法を提案する。
効率的な実装のために、我々は、深層ニューラルネットワークを用いて非パラメトリックに速度場を推定するオイラー法を用いて流れを判別する。
論文 参考訳(メタデータ) (2024-02-02T14:52:10Z) - A Variational Perspective on Solving Inverse Problems with Diffusion
Models [101.831766524264]
逆タスクは、データ上の後続分布を推測するものとして定式化することができる。
しかし、拡散過程の非線形的かつ反復的な性質が後部を引き付けるため、拡散モデルではこれは困難である。
そこで我々は,真の後続分布を近似する設計手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T23:00:47Z) - Deep Variational Inverse Scattering [18.598311270757527]
逆媒体散乱解法は一般に、関連する不確実性の尺度なしで単一の解を再構成する。
条件正規化フローのような深いネットワークは、逆問題の後部をサンプリングするのに使うことができる。
条件付き正規化フローに基づくベイズ的U-NetであるU-Flowを提案し,高品質な後続サンプルを生成し,物理的に有意な不確かさを推定する。
論文 参考訳(メタデータ) (2022-12-08T14:57:06Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Solving Inverse Problems with a Flow-based Noise Model [100.18560761392692]
本研究では,従来の正規化フローを用いた画像逆問題について検討する。
我々の定式化は、この解を測定値に条件付けされた画像の最大後値推定とみなす。
提案手法の様々な逆問題に対する有効性について実験的に検証した。
論文 参考訳(メタデータ) (2020-03-18T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。