論文の概要: Latent Generative Models with Tunable Complexity for Compressed Sensing and other Inverse Problems
- arxiv url: http://arxiv.org/abs/2603.07357v2
- Date: Tue, 10 Mar 2026 13:28:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 12:59:13.0304
- Title: Latent Generative Models with Tunable Complexity for Compressed Sensing and other Inverse Problems
- Title(参考訳): 圧縮センシングと他の逆問題に対するチューナブル複雑性をもつ潜在生成モデル
- Authors: Sean Gunn, Jorio Cocola, Oliver De Candido, Vaggos Chatziafratis, Paul Hand,
- Abstract要約: 逆問題の解法として, チューナブル・コンプレクティティ・プレッシャを開発する。
可変プリミティブは固定複雑さベースラインよりも低い再構成誤差を連続的に達成できることを実証的に示す。
この研究は、チューナブル・複雑な生成先行の可能性を実証し、支持理論の発展と幅広い逆問題への応用の両方を動機付けている。
- 参考スコア(独自算出の注目度): 7.111209122554222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models have emerged as powerful priors for solving inverse problems. These models typically represent a class of natural signals using a single fixed complexity or dimensionality. This can be limiting: depending on the problem, a fixed complexity may result in high representation error if too small, or overfitting to noise if too large. We develop tunable-complexity priors for diffusion models, normalizing flows, and variational autoencoders, leveraging nested dropout. Across tasks including compressed sensing, inpainting, denoising, and phase retrieval, we show empirically that tunable priors consistently achieve lower reconstruction errors than fixed-complexity baselines. In the linear denoising setting, we provide a theoretical analysis that explicitly characterizes how the optimal tuning parameter depends on noise and model structure. This work demonstrates the potential of tunable-complexity generative priors and motivates both the development of supporting theory and their application across a wide range of inverse problems.
- Abstract(参考訳): 生成モデルは、逆問題の解決の強力な先行候補として現れてきた。
これらのモデルは典型的には、単一の固定された複雑性または次元を用いて自然な信号のクラスを表す。
問題によっては、固定された複雑さは、小さすぎると高い表現誤差を生じ、大きすぎるとノイズに過度に適応する。
本研究では, 拡散モデル, 正規化フロー, 変分オートエンコーダに対して, ネストしたドロップアウトを生かし, チューナブル・コンプレッショニティ・プレッシャを開発する。
また, 圧縮センシング, 塗装, ノイズ除去, 位相探索などのタスクにおいて, 可変プリエントが固定複雑さベースラインよりも低い再構成誤差を連続的に達成できることを実証的に示す。
線形 denoising 設定では、最適チューニングパラメータがノイズやモデル構造にどのように依存するかを明確に特徴付ける理論解析を行う。
この研究は、チューナブル・複雑な生成先行の可能性を実証し、支持理論の発展と幅広い逆問題への応用の両方を動機付けている。
関連論文リスト
- Noise is All You Need: Solving Linear Inverse Problems by Noise Combination Sampling with Diffusion Models [7.219077740523681]
本稿では,雑音部分空間から最適な雑音ベクトルを合成し,測定スコアを近似する手法を提案する。
本手法は画像圧縮を含む幅広い逆問題解法に適用可能である。
論文 参考訳(メタデータ) (2025-10-24T07:46:23Z) - Solving Inverse Problems with Latent Diffusion Models via Hard Data Consistency [7.671153315762146]
画素空間におけるトレーニング拡散モデルは、データ集約的かつ計算的に要求される。
非常に低次元空間で動作する潜在拡散モデルは、これらの課題に対する解決策を提供する。
我々は,事前学習した潜在拡散モデルを用いて,一般的な逆問題を解決するアルゴリズムであるtextitReSampleを提案する。
論文 参考訳(メタデータ) (2023-07-16T18:42:01Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Removing Structured Noise with Diffusion Models [13.50969999636388]
拡散モデルによる後方サンプリングの強力なパラダイムは、リッチで構造化されたノイズモデルを含むように拡張可能であることを示す。
構成雑音による様々な逆問題に対して高い性能向上を示し、競争的ベースラインよりも優れた性能を示す。
これにより、非ガウス測度モデルの文脈における逆問題に対する拡散モデリングの新しい機会と関連する実践的応用が開かれる。
論文 参考訳(メタデータ) (2023-01-20T23:42:25Z) - Diffusion Posterior Sampling for General Noisy Inverse Problems [50.873313752797124]
我々は、後方サンプリングの近似により、雑音(非線形)逆問題に対処するために拡散解法を拡張した。
本手法は,拡散モデルが様々な計測ノイズ統計を組み込むことができることを示す。
論文 参考訳(メタデータ) (2022-09-29T11:12:27Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。