論文の概要: Self-diffusion for Solving Inverse Problems
- arxiv url: http://arxiv.org/abs/2510.21417v1
- Date: Fri, 24 Oct 2025 12:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.419924
- Title: Self-diffusion for Solving Inverse Problems
- Title(参考訳): 逆問題の解法における自己拡散
- Authors: Guanxiong Luo, Shoujin Huang, Yanlong Yang,
- Abstract要約: 我々は,事前学習された生成モデルに頼ることなく,逆問題を解決するための新しいフレームワークである自己拡散を提案する。
自己拡散はニューラルネットワークのスペクトルバイアスを利用して、スケジュールされたノイズプロセスを通じて変調する。
我々は, 線形逆問題に対するアプローチの有効性を実証し, 他の手法と比較して, 自己拡散が競争力や優れた性能を達成することを示す。
- 参考スコア(独自算出の注目度): 3.8870795921263728
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose self-diffusion, a novel framework for solving inverse problems without relying on pretrained generative models. Traditional diffusion-based approaches require training a model on a clean dataset to learn to reverse the forward noising process. This model is then used to sample clean solutions -- corresponding to posterior sampling from a Bayesian perspective -- that are consistent with the observed data under a specific task. In contrast, self-diffusion introduces a self-contained iterative process that alternates between noising and denoising steps to progressively refine its estimate of the solution. At each step of self-diffusion, noise is added to the current estimate, and a self-denoiser, which is a single untrained convolutional network randomly initialized from scratch, is continuously trained for certain iterations via a data fidelity loss to predict the solution from the noisy estimate. Essentially, self-diffusion exploits the spectral bias of neural networks and modulates it through a scheduled noise process. Without relying on pretrained score functions or external denoisers, this approach still remains adaptive to arbitrary forward operators and noisy observations, making it highly flexible and broadly applicable. We demonstrate the effectiveness of our approach on a variety of linear inverse problems, showing that self-diffusion achieves competitive or superior performance compared to other methods.
- Abstract(参考訳): 我々は,事前学習された生成モデルに頼ることなく,逆問題を解決するための新しいフレームワークである自己拡散を提案する。
従来の拡散ベースのアプローチでは、フォワードノイズ発生プロセスの反転を学ぶために、クリーンデータセット上でモデルをトレーニングする必要があります。
このモデルは、特定のタスクの下で観測されたデータと一致したクリーンなソリューション(ベイズの観点からの後方サンプリングに対応する)をサンプリングするために使用される。
これとは対照的に、自己拡散は自己完結した反復的プロセスを導入し、このプロセスは、解の見積もりを段階的に洗練するために、名詞化ステップと名詞化ステップを交互に交互に行う。
自己拡散の各ステップにおいて、現在の推定値にノイズを付加し、スクラッチからランダムに初期化された単一の未学習畳み込みネットワークであるセルフデノワザを、データフィデリティ損失を介して一定のイテレーションに対して連続的にトレーニングし、ノイズ推定から解を予測する。
本質的には、自己拡散はニューラルネットワークのスペクトルバイアスを利用して、スケジュールされたノイズプロセスを通じてそれを変調する。
事前訓練されたスコア関数や外部のデノイザを頼りにすることなく、このアプローチは任意のフォワード作用素やノイズの多い観測に適応し続けており、非常に柔軟で広く適用できる。
我々は, 線形逆問題に対するアプローチの有効性を実証し, 他の手法と比較して, 自己拡散が競争力や優れた性能を達成することを示す。
関連論文リスト
- Beyond Fixed Horizons: A Theoretical Framework for Adaptive Denoising Diffusions [1.9116784879310031]
本稿では, ノイズ発生過程とノイズ発生過程の両方において, 時間均質な構造を実現する新しい生成拡散モデルを提案する。
モデルの主な特徴は、ターゲットデータへの適応性であり、事前訓練された無条件生成モデルを使用して、様々な下流タスクを可能にする。
論文 参考訳(メタデータ) (2025-01-31T18:23:27Z) - Amortized Posterior Sampling with Diffusion Prior Distillation [55.03585818289934]
Amortized Posterior Smplingは、逆問題における効率的な後方サンプリングのための新しい変分推論手法である。
本手法は,拡散モデルにより暗黙的に定義された変動分布と後続分布とのばらつきを最小限に抑えるために条件付き流れモデルを訓練する。
既存の手法とは異なり、我々のアプローチは教師なしであり、ペア化されたトレーニングデータを必要としておらず、ユークリッドと非ユークリッドの両方のドメインに適用できる。
論文 参考訳(メタデータ) (2024-07-25T09:53:12Z) - ConsistencyDet: A Few-step Denoising Framework for Object Detection Using the Consistency Model [22.34776007498307]
本稿では,物体検出を認知拡散過程として記述するための新しいフレームワークを提案する。
textbfConsistencyDetと呼ばれるこのフレームワークは、Consistency Modelとして知られる革新的な概念を活用している。
論文 参考訳(メタデータ) (2024-04-11T14:08:45Z) - A Variational Perspective on Solving Inverse Problems with Diffusion
Models [101.831766524264]
逆タスクは、データ上の後続分布を推測するものとして定式化することができる。
しかし、拡散過程の非線形的かつ反復的な性質が後部を引き付けるため、拡散モデルではこれは困難である。
そこで我々は,真の後続分布を近似する設計手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T23:00:47Z) - GibbsDDRM: A Partially Collapsed Gibbs Sampler for Solving Blind Inverse
Problems with Denoising Diffusion Restoration [64.8770356696056]
本稿では,DDRM(Denoising Diffusion Restoration Models)の拡張であるGibbsDDRMを提案する。
提案手法は問題に依存しないため,様々な逆問題に対して事前学習した拡散モデルを適用することができる。
論文 参考訳(メタデータ) (2023-01-30T06:27:48Z) - Composing Normalizing Flows for Inverse Problems [89.06155049265641]
本稿では,2つの流れモデルの合成として,対象条件を推定する近似推論フレームワークを提案する。
本手法は,様々な逆問題に対して評価し,不確実性のある高品質な試料を作製することを示した。
論文 参考訳(メタデータ) (2020-02-26T19:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。