論文の概要: Learning Single Index Models with Diffusion Priors
- arxiv url: http://arxiv.org/abs/2505.21135v1
- Date: Tue, 27 May 2025 12:50:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.649225
- Title: Learning Single Index Models with Diffusion Priors
- Title(参考訳): 拡散プリミティブを用いた単一指標モデル学習
- Authors: Anqi Tang, Youming Chen, Shuchen Xue, Zhaoqiang Liu,
- Abstract要約: 拡散モデル(DM)は、多彩で高品質な画像を生成できることを顕著に示している。
DMの1ラウンドの無条件サンプリングと(部分的な)逆変換しか必要としない効率的な再構成法を提案する。
- 参考スコア(独自算出の注目度): 11.399577852929502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models (DMs) have demonstrated remarkable ability to generate diverse and high-quality images by efficiently modeling complex data distributions. They have also been explored as powerful generative priors for signal recovery, resulting in a substantial improvement in the quality of reconstructed signals. However, existing research on signal recovery with diffusion models either focuses on specific reconstruction problems or is unable to handle nonlinear measurement models with discontinuous or unknown link functions. In this work, we focus on using DMs to achieve accurate recovery from semi-parametric single index models, which encompass a variety of popular nonlinear models that may have {\em discontinuous} and {\em unknown} link functions. We propose an efficient reconstruction method that only requires one round of unconditional sampling and (partial) inversion of DMs. Theoretical analysis on the effectiveness of the proposed methods has been established under appropriate conditions. We perform numerical experiments on image datasets for different nonlinear measurement models. We observe that compared to competing methods, our approach can yield more accurate reconstructions while utilizing significantly fewer neural function evaluations.
- Abstract(参考訳): 拡散モデル(DM)は、複雑なデータ分布を効率的にモデル化することにより、多彩で高品質な画像を生成する優れた能力を示した。
また、信号回復のための強力な生成前駆体として探索され、再構成された信号の品質が大幅に向上した。
しかし、拡散モデルによる信号回復に関する既存の研究は、特定の再構成問題に焦点を当てるか、不連続あるいは未知のリンク関数を持つ非線形測定モデルを扱うことができない。
本研究では,半パラメトリックな単一指標モデルから正確なリカバリを実現するために,DMを用いることに焦点をあてる。
DMの1ラウンドの無条件サンプリングと(部分的な)逆変換しか必要としない効率的な再構成法を提案する。
提案手法の有効性に関する理論的解析は, 適切な条件下で確立されている。
我々は、異なる非線形測定モデルのための画像データセットの数値実験を行う。
提案手法は, 競合する手法と比較して, はるかに少ない神経機能評価を生かしながら, より正確な再構築を行うことができる。
関連論文リスト
- NeurAM: nonlinear dimensionality reduction for uncertainty quantification through neural active manifolds [0.6990493129893112]
我々はオートエンコーダを利用して1次元のニューラルアクティブ多様体(NeurAM)をモデル出力の可変性を捉える。
分散を低減した多要素サンプリング推定器にNeurAMをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2024-08-07T04:27:58Z) - Highly Accelerated MRI via Implicit Neural Representation Guided Posterior Sampling of Diffusion Models [2.5412006057370893]
Inlicit Neural representation (INR) は、逆問題を解決するための強力なパラダイムとして登場した。
提案するフレームワークは、他の医療画像タスクにおける逆問題を解決するための一般化可能なフレームワークである。
論文 参考訳(メタデータ) (2024-07-03T01:37:56Z) - Entropic Regression DMD (ERDMD) Discovers Informative Sparse and Nonuniformly Time Delayed Models [0.0]
エントロピー回帰を用いた最適多段階動的モード分解モデルを決定する手法を提案する。
非一様時間空間を実現するために,高忠実度時間遅延MDDモデルを生成する手法を開発した。
これらのモデルは、非常に効率的で堅牢であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T20:02:43Z) - Solving Inverse Problems with Model Mismatch using Untrained Neural Networks within Model-based Architectures [14.551812310439004]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
提案手法は,パラメータ感受性が低く,追加データを必要としない統一解を提供し,前方モデルの同時適用と1パスの再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。