論文の概要: Solving Inverse Problems with FLAIR
- arxiv url: http://arxiv.org/abs/2506.02680v1
- Date: Tue, 03 Jun 2025 09:29:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.516852
- Title: Solving Inverse Problems with FLAIR
- Title(参考訳): FLAIRによる逆問題の解法
- Authors: Julius Erbach, Dominik Narnhofer, Andreas Dombos, Bernt Schiele, Jan Eric Lenssen, Konrad Schindler,
- Abstract要約: フローベースの潜在生成モデルは、驚くべき品質の画像を生成でき、テキスト・ツー・イメージ生成も可能である。
本稿では,フローベース生成モデルを逆問題の前兆として活用する新しい学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 59.02385492199431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow-based latent generative models such as Stable Diffusion 3 are able to generate images with remarkable quality, even enabling photorealistic text-to-image generation. Their impressive performance suggests that these models should also constitute powerful priors for inverse imaging problems, but that approach has not yet led to comparable fidelity. There are several key obstacles: (i) the encoding into a lower-dimensional latent space makes the underlying (forward) mapping non-linear; (ii) the data likelihood term is usually intractable; and (iii) learned generative models struggle to recover rare, atypical data modes during inference. We present FLAIR, a novel training free variational framework that leverages flow-based generative models as a prior for inverse problems. To that end, we introduce a variational objective for flow matching that is agnostic to the type of degradation, and combine it with deterministic trajectory adjustments to recover atypical modes. To enforce exact consistency with the observed data, we decouple the optimization of the data fidelity and regularization terms. Moreover, we introduce a time-dependent calibration scheme in which the strength of the regularization is modulated according to off-line accuracy estimates. Results on standard imaging benchmarks demonstrate that FLAIR consistently outperforms existing diffusion- and flow-based methods in terms of reconstruction quality and sample diversity.
- Abstract(参考訳): 安定拡散3のようなフローベースの潜在生成モデルは、フォトリアリスティックなテキスト・ツー・イメージ生成さえ可能で、優れた画質で画像を生成することができる。
彼らの印象的な性能は、これらのモデルが逆画像問題に強力な先行要素となることを示唆しているが、そのアプローチがまだ同等の忠実さを導いていないことを示唆している。
主な障害はいくつかある。
(i)低次元潜在空間への符号化は、基礎となる(前方)写像を非線形にする。
(ii)データ可能性用語は、通常、難解である。
第三報) 学習した生成モデルは推論中に稀で非定型的なデータモードを復元するのに苦労した。
本稿では,フローベース生成モデルを逆問題の前兆として活用する新しい学習自由変分フレームワークFLAIRを提案する。
そこで本研究では, 劣化のタイプに依存しないフローマッチングの変動目標を導入し, 非定型モードを回復するために, 決定論的軌道調整と組み合わせる。
観測データとの厳密な整合性を確保するため,データ忠実度と正規化項の最適化を分離する。
さらに,正則化の強度をオフライン精度推定に基づいて変調する時間依存キャリブレーション方式を提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
関連論文リスト
- Prototype Clustered Diffusion Models for Versatile Inverse Problems [11.55838697574475]
測定に基づく確率は、逆の確率的図形方向を通した復元に基づく確率で再現可能であることを示す。
提案手法は, サンプル品質を考慮に入れた逆問題に対処し, 精度の高い劣化制御を実現する。
論文 参考訳(メタデータ) (2024-07-13T04:24:53Z) - Convex Latent-Optimized Adversarial Regularizers for Imaging Inverse
Problems [8.33626757808923]
本稿では,新しいデータ駆動型パラダイムであるConvex Latent-d Adrial Regularizers (CLEAR)を紹介する。
CLEARは、ディープラーニング(DL)と変分正規化の融合を表す。
本手法は従来型のデータ駆動手法と従来型の正規化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-17T12:06:04Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Attentive Contractive Flow with Lipschitz-constrained Self-Attention [25.84621883831624]
注意的収縮フロー(ACF)と呼ばれる新しいアプローチを導入する。
ACFは、フローベースの生成モデル - 収縮フロー - の特別なカテゴリを利用する。
我々は, ACFをプラグアンドプレイ方式で, 各種のアートフローモデルに導入できることを実証した。
論文 参考訳(メタデータ) (2021-09-24T18:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。