論文の概要: Guess & Guide: Gradient-Free Zero-Shot Diffusion Guidance
- arxiv url: http://arxiv.org/abs/2603.07860v1
- Date: Mon, 09 Mar 2026 00:21:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.32423
- Title: Guess & Guide: Gradient-Free Zero-Shot Diffusion Guidance
- Title(参考訳): Guess & Guide: グラディエントフリーゼロショット拡散誘導
- Authors: Abduragim Shtanchaev, Albina Ilina, Yazid Janati, Arip Asadulaev, Martin Takác, Eric Moulines,
- Abstract要約: 本稿では,デノイザネットワークによる勾配計算を不要とする軽量なサロゲートを提案する。
実験により,提案手法を用いることで,推定コストが劇的に低下することが確認された。
同時に、我々の手法は複数のタスクにおいて最も高い結果をもたらす。
- 参考スコア(独自算出の注目度): 29.644504577943696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained diffusion models serve as effective priors for Bayesian inverse problems. These priors enable zero-shot generation by sampling from the conditional distribution, which avoids the need for task-specific retraining. However, a major limitation of existing methods is their reliance on surrogate likelihoods that require vector-Jacobian products at each denoising step, creating a substantial computational burden. To address this, we introduce a lightweight likelihood surrogate that eliminates the need to calculate gradients through the denoiser network. This enables us to handle diverse inverse problems without backpropagation overhead. Experiments confirm that using our method, the inference cost drops dramatically. At the same time, our approach delivers the highest results in multiple tasks. Broadly speaking, we propose the fastest and Pareto optimal method for Bayesian inverse problems.
- Abstract(参考訳): 事前制約付き拡散モデルはベイズ逆問題に対する効果的な先行要因となる。
これらの先行は条件分布からサンプリングすることでゼロショット生成を可能にするため、タスク固有の再トレーニングは不要である。
しかし、既存の方法の大きな制限は、ベクトル-ヤコビ積を必要とするサロゲート可能性に依存しており、かなりの計算負担を生み出すことである。
そこで本研究では,デノイザネットワークによる勾配計算を不要とする軽量なサロゲートを提案する。
これにより、バックプロパゲーションオーバーヘッドを伴わずに多様な逆問題に対処できる。
実験により,提案手法を用いることで,推定コストが劇的に低下することが確認された。
同時に、我々の手法は複数のタスクにおいて最も高い結果をもたらす。
広義的には、ベイズ逆問題に対する最も高速でパレートな手法を提案する。
関連論文リスト
- Test-Time Scaling with Diffusion Language Models via Reward-Guided Stitching [66.39914384073145]
本稿では,安価な拡散サンプリング推論をステップレベル候補の再利用プールに変換する自己整合性フレームワークを提案する。
ステップレベルの再結合は、難しい問題に対して最も有益であることがわかった。
トレーニング不要のフレームワークは、6つの数学およびコーディングタスクの平均精度を最大2倍改善します。
論文 参考訳(メタデータ) (2026-02-26T11:08:39Z) - GAS: Improving Discretization of Diffusion ODEs via Generalized Adversarial Solver [120.67680383929081]
ODEサンプルの単純なパラメータ化を導入し、追加のトレーニングトリックを必要とせず、既存のアプローチよりも品質が向上する。
さらに, 本来の蒸留損失と逆行訓練を組み合わせることで, 人工物が軽減され, 細部忠実度が向上する。
論文 参考訳(メタデータ) (2025-10-20T16:14:38Z) - ReGuidance: A Simple Diffusion Wrapper for Boosting Sample Quality on Hard Inverse Problems [10.698572109242434]
簡単なラッパーであるReGuidanceを考案し、トレーニング不要の手法で実現したサンプルリアリズムと報酬の両方を向上する。
我々は,大箱 in-painting や高スケール超解像といったハード逆問題に対するラッパーの評価を行った。
論文 参考訳(メタデータ) (2025-06-12T17:55:17Z) - Diffusion Prior-Based Amortized Variational Inference for Noisy Inverse Problems [12.482127049881026]
そこで本稿では, 償却変分推論の観点から, 拡散による逆問題の解法を提案する。
我々の償却推論は、測定結果を対応するクリーンデータの暗黙の後方分布に直接マッピングする関数を学習し、未知の計測でも単一ステップの後方サンプリングを可能にする。
論文 参考訳(メタデータ) (2024-07-23T02:14:18Z) - Unleashing the Denoising Capability of Diffusion Prior for Solving Inverse Problems [26.134240531687453]
ProjDiffアルゴリズムは、最適化フレームワーク内で事前学習された拡散モデルの事前情報と復調能力を利用する。
画像復元タスクとソース分離および部分生成タスクの実験により、ProjDiffは様々な線形および非線形逆問題に対して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-06-11T05:35:18Z) - Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance [52.093434664236014]
近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
論文 参考訳(メタデータ) (2024-02-03T13:35:39Z) - Diffusion Posterior Sampling for General Noisy Inverse Problems [50.873313752797124]
我々は、後方サンプリングの近似により、雑音(非線形)逆問題に対処するために拡散解法を拡張した。
本手法は,拡散モデルが様々な計測ノイズ統計を組み込むことができることを示す。
論文 参考訳(メタデータ) (2022-09-29T11:12:27Z) - Improving Diffusion Models for Inverse Problems using Manifold Constraints [55.91148172752894]
我々は,現在の解法がデータ多様体からサンプルパスを逸脱し,エラーが蓄積することを示す。
この問題に対処するため、多様体の制約に着想を得た追加の補正項を提案する。
本手法は理論上も経験上も従来の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-02T09:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。