論文の概要: Saving Foundation Flow-Matching Priors for Inverse Problems
- arxiv url: http://arxiv.org/abs/2511.16520v1
- Date: Thu, 20 Nov 2025 16:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.720903
- Title: Saving Foundation Flow-Matching Priors for Inverse Problems
- Title(参考訳): 逆問題に対するファンデーションフローマッチングの優先事項の省力化
- Authors: Yuxiang Wan, Ryan Devera, Wenjie Zhang, Ju Sun,
- Abstract要約: ファンデーションフローマッチング(FM)モデルは、逆問題(IP)を解決するための普遍的な先行を約束する
FMPlugは、IPにおける基礎FMの使用方法を再定義するプラグインフレームワークである。
本研究は, 基礎FMモデルを実用化し, 再利用可能なIP解決手法を提案する。
- 参考スコア(独自算出の注目度): 9.257036746938422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation flow-matching (FM) models promise a universal prior for solving inverse problems (IPs), yet today they trail behind domain-specific or even untrained priors. How can we unlock their potential? We introduce FMPlug, a plug-in framework that redefines how foundation FMs are used in IPs. FMPlug combines an instance-guided, time-dependent warm-start strategy with a sharp Gaussianity regularization, adding problem-specific guidance while preserving the Gaussian structures. This leads to a significant performance boost across image restoration and scientific IPs. Our results point to a path for making foundation FM models practical, reusable priors for IP solving.
- Abstract(参考訳): ファンデーションフローマッチング(FM)モデルは、逆問題(IP)を解決するための普遍的な優先事項を約束するが、今日ではドメイン固有の、あるいは訓練されていない事前事項に追随している。
どうやってその可能性を解き明かすのか?
FMPlugは、IPにおける基礎FMの使用方法を再定義するプラグインフレームワークである。
FMPlugは、インスタンス誘導、時間依存のウォームスタート戦略と鋭いガウス正則化を組み合わせ、ガウス構造を保存しながら問題固有のガイダンスを追加する。
これにより、画像復元と科学的なIP間での大幅なパフォーマンス向上につながります。
本研究は, 基礎FMモデルを実用化し, 再利用可能なIP解決手法を提案する。
関連論文リスト
- FMPlug: Plug-In Foundation Flow-Matching Priors for Inverse Problems [6.3140989721044445]
FMPlugは,基礎フローマッチング(Foundation Flow-matching, FM)の先行性を高める新しいプラグインフレームワークである。
FMPlugはドメイン特化や訓練されていない事前のアプローチとは異なり、シンプルだが強力な2つの洞察を賢く活用する。
論文 参考訳(メタデータ) (2025-08-01T15:40:37Z) - FiRe: Fixed-points of Restoration Priors for Solving Inverse Problems [11.441644020200549]
ニューラルネットワークの認知に基づく暗黙の先行は、広く使われているアルゴリズムの中心となっている。
本稿では,前兆の概念を拡大するための新しい枠組みとして,前兆の固定点(FiRe)を導入する。
一般的な復元モデルです
論文 参考訳(メタデータ) (2024-11-28T07:40:16Z) - FedPFT: Federated Proxy Fine-Tuning of Foundation Models [55.58899993272904]
フェデレートラーニング(FL)を通じて下流タスクにファンデーションモデル(FM)を適用することは、データプライバシと価値のあるFMを保護するための有望な戦略として現れます。
FLのクライアントにサブFMを割り当てることによる既存のFMの微調整手法は、チューニングが不十分で勾配の必然的エラー蓄積が避けられないため、最適以下の性能をもたらす。
本稿では,FedPFT(Federated Proxy Fine-Tuning)を提案する。
論文 参考訳(メタデータ) (2024-04-17T16:30:06Z) - Optimal Flow Matching: Learning Straight Trajectories in Just One Step [89.37027530300617]
我々は,新しいtextbf Optimal Flow Matching (OFM) アプローチを開発し,理論的に正当化する。
これは2次輸送のための直列のOT変位をFMの1ステップで回復することを可能にする。
提案手法の主な考え方は,凸関数によってパラメータ化されるFMのベクトル場の利用である。
論文 参考訳(メタデータ) (2024-03-19T19:44:54Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - NF-ULA: Langevin Monte Carlo with Normalizing Flow Prior for Imaging
Inverse Problems [7.38079566297881]
我々は,NF-ULA (Normalizing Flow-based Unadjusted Langevin algorithm) を導入する。
NF-ULAは、深刻な逆問題に対して競合する手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-17T15:03:45Z) - Content Popularity Prediction Based on Quantized Federated Bayesian
Learning in Fog Radio Access Networks [76.16527095195893]
キャッシュ可能なフォグラジオアクセスネットワーク(F-RAN)におけるコンテンツ人気予測問題について検討する。
そこで本研究では,コンテンツ要求パターンをモデル化するためのガウス過程に基づく回帰器を提案する。
我々はベイズ学習を利用してモデルパラメータを訓練する。
論文 参考訳(メタデータ) (2022-06-23T03:05:12Z) - A data-driven choice of misfit function for FWI using reinforcement
learning [0.0]
我々は、DQN(Deep-Q Network)を用いて最適なポリシーを学習し、異なる不適合関数を切り替える適切なタイミングを決定する。
具体的には、従来のL2-ノルムミスフィット関数やOTMF(Optimal-transport Match-filter)のミスフィットをいつ使うべきかを予測するために状態-アクション値関数(Q)を訓練する。
論文 参考訳(メタデータ) (2020-02-08T12:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。