論文の概要: Injecting Measurement Information Yields a Fast and Noise-Robust Diffusion-Based Inverse Problem Solver
- arxiv url: http://arxiv.org/abs/2508.02964v1
- Date: Tue, 05 Aug 2025 00:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.720795
- Title: Injecting Measurement Information Yields a Fast and Noise-Robust Diffusion-Based Inverse Problem Solver
- Title(参考訳): 高速・低騒音拡散に基づく逆問題解のインジェクション計測情報
- Authors: Jonathan Patsenker, Henry Li, Myeongseob Ko, Ruoxi Jia, Yuval Kluger,
- Abstract要約: 条件付き後続平均 $mathbbE [mathbfx_t, mathbfy]$ を推定する。
結果として得られる予測は、任意の標準サンプリングに組み込むことができ、高速でメモリ効率の良い逆解法をもたらす。
- 参考スコア(独自算出の注目度): 20.959606647379356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have been firmly established as principled zero-shot solvers for linear and nonlinear inverse problems, owing to their powerful image prior and iterative sampling algorithm. These approaches often rely on Tweedie's formula, which relates the diffusion variate $\mathbf{x}_t$ to the posterior mean $\mathbb{E} [\mathbf{x}_0 | \mathbf{x}_t]$, in order to guide the diffusion trajectory with an estimate of the final denoised sample $\mathbf{x}_0$. However, this does not consider information from the measurement $\mathbf{y}$, which must then be integrated downstream. In this work, we propose to estimate the conditional posterior mean $\mathbb{E} [\mathbf{x}_0 | \mathbf{x}_t, \mathbf{y}]$, which can be formulated as the solution to a lightweight, single-parameter maximum likelihood estimation problem. The resulting prediction can be integrated into any standard sampler, resulting in a fast and memory-efficient inverse solver. Our optimizer is amenable to a noise-aware likelihood-based stopping criteria that is robust to measurement noise in $\mathbf{y}$. We demonstrate comparable or improved performance against a wide selection of contemporary inverse solvers across multiple datasets and tasks.
- Abstract(参考訳): 拡散モデルは、線形および非線形の逆問題に対する原理化されたゼロショット解法として確立されている。
これらのアプローチはツイーディの公式に依存しており、最終偏微分標本 $\mathbf{x}_0$ を推定して拡散軌跡を導出するために、拡散変数 $\mathbf{x}_t$ を後平均 $\mathbb{E} [\mathbf{x}_0 | \mathbf{x}_t]$ に関連付ける。
しかし、これは測定の$\mathbf{y}$からの情報を考慮していない。
本研究では, 条件付き後進平均 $\mathbb{E} [\mathbf{x}_0 | \mathbf{x}_t, \mathbf{y}]$ を推定することを提案する。
結果として得られる予測は、任意の標準サンプリングに組み込むことができ、高速でメモリ効率の良い逆解法をもたらす。
我々のオプティマイザは、$\mathbf{y}$のノイズ測定に頑健なノイズ認識可能性に基づく停止基準に適合する。
複数のデータセットやタスクにまたがる、現代の逆ソルバの幅広い選択に対して、同等または改善された性能を示す。
関連論文リスト
- Spike-and-Slab Posterior Sampling in High Dimensions [11.458504242206862]
スパイク・アンド・スラブ先行法[MB88]による後方サンプリングは,ベイズ・スパース線形回帰の理論的金標準法であると考えられる。
我々は,任意のSNRに適用可能なスパイク・アンド・スラブ後続サンプリングのための最初の証明可能なアルゴリズムを提示し,問題次元における測定カウントサブを使用する。
ラプラス拡散密度を用いたスパイク・アンド・スラブ後方サンプリングに拡張し、$sigma = O(frac1k)$が有界である場合にも同様の保証を達成する。
論文 参考訳(メタデータ) (2025-03-04T17:16:07Z) - Outsourced diffusion sampling: Efficient posterior inference in latent spaces of generative models [65.71506381302815]
本稿では、$p(mathbfxmidmathbfy) propto p_theta(mathbfx)$ という形式の後続分布からサンプリングするコストを償却する。
多くのモデルや制約に対して、後部ノイズ空間はデータ空間よりも滑らかであり、償却推論により適している。
論文 参考訳(メタデータ) (2025-02-10T19:49:54Z) - Inverting the Leverage Score Gradient: An Efficient Approximate Newton Method [10.742859956268655]
本稿では,レバレッジスコア勾配から固有モデルパラメータを復元することを目的とする。
具体的には、レバレッジスコア勾配の逆転を$g(x)$として精査する。
論文 参考訳(メタデータ) (2024-08-21T01:39:42Z) - Diffusion Posterior Sampling is Computationally Intractable [9.483130965295324]
後方サンプリングは、塗装、超解像、MRI再構成などのタスクに有用である。
暗号における最も基本的な仮定では、一方通行関数が存在する。
また,指数時間回帰サンプリングは,指数時間で逆転する一方向関数が存在するという強い仮定の下で,本質的に最適であることを示す。
論文 参考訳(メタデータ) (2024-02-20T05:28:13Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Near Optimal Heteroscedastic Regression with Symbiotic Learning [29.16456701187538]
我々は不連続線形回帰の問題を考察する。
正則ノルムにおいて$mathbfw*$を$tildeOleft(|mathbff*|2cdot left(frac1n + left(dnright)2right)$の誤差まで推定し、一致する下界を証明できる。
論文 参考訳(メタデータ) (2023-06-25T16:32:00Z) - Multi-block-Single-probe Variance Reduced Estimator for Coupled
Compositional Optimization [49.58290066287418]
構成問題の複雑さを軽減するために,MSVR (Multi-block-probe Variance Reduced) という新しい手法を提案する。
本研究の結果は, 試料の複雑さの順序や強靭性への依存など, 様々な面で先行して改善された。
論文 参考訳(メタデータ) (2022-07-18T12:03:26Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。