論文の概要: Decoupled Diffusion Sampling for Inverse Problems on Function Spaces
- arxiv url: http://arxiv.org/abs/2601.23280v1
- Date: Fri, 30 Jan 2026 18:54:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.623893
- Title: Decoupled Diffusion Sampling for Inverse Problems on Function Spaces
- Title(参考訳): 関数空間上の逆問題に対する分離拡散サンプリング
- Authors: Thomas Y. L. Lin, Jiachen Yao, Lufang Chiang, Julius Berner, Anima Anandkumar,
- Abstract要約: 既存のプラグ・アンド・プレイ拡散後サンプリングは係数ジョイント・ソリューション・モデリングを通じて物理を暗黙的に表現する。
逆PDE問題に対する関数空間における物理認識型生成フレームワークを提案する。
我々の解答拡散逆ソルバー(DDIS)は、非条件拡散が事前に係数を学習し、ニューラル演算子はガイダンスのためにフォワードPDEを明示的にモデル化する。
- 参考スコア(独自算出の注目度): 73.52103661482242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a data-efficient, physics-aware generative framework in function space for inverse PDE problems. Existing plug-and-play diffusion posterior samplers represent physics implicitly through joint coefficient-solution modeling, requiring substantial paired supervision. In contrast, our Decoupled Diffusion Inverse Solver (DDIS) employs a decoupled design: an unconditional diffusion learns the coefficient prior, while a neural operator explicitly models the forward PDE for guidance. This decoupling enables superior data efficiency and effective physics-informed learning, while naturally supporting Decoupled Annealing Posterior Sampling (DAPS) to avoid over-smoothing in Diffusion Posterior Sampling (DPS). Theoretically, we prove that DDIS avoids the guidance attenuation failure of joint models when training data is scarce. Empirically, DDIS achieves state-of-the-art performance under sparse observation, improving $l_2$ error by 11% and spectral error by 54% on average; when data is limited to 1%, DDIS maintains accuracy with 40% advantage in $l_2$ error compared to joint models.
- Abstract(参考訳): 逆PDE問題に対する関数空間におけるデータ効率・物理認識型生成フレームワークを提案する。
既存のプラグ・アンド・プレイ拡散後サンプリング装置は、結合係数-溶液モデルを通して物理学を暗黙的に表現し、相当なペアの監督を必要とする。
対照的に、Decoupled Diffusion Inverse Solver(DDIS)では、非条件拡散が事前に係数を学習し、ニューラル演算子がガイダンスのためにフォワードPDEを明示的にモデル化する、分離された設計を採用している。
このデカップリングは、DPS(Diffusion Posterior Sampling)の過度な平滑化を回避するために、DAPS(Decoupled Annealing Posterior Sampling)を自然にサポートしながら、優れたデータ効率と効果的な物理インフォームドラーニングを可能にする。
理論的には、DDISはトレーニングデータが少ない場合に関節モデルの誘導減衰を回避している。
実験的に、DDISはスパース観測下での最先端性能を実現し、平均で11%の誤差と54%のスペクトル誤差を改善した。
関連論文リスト
- DS-Diffusion: Data Style-Guided Diffusion Model for Time-Series Generation [3.7098771725459336]
時系列生成タスクのためのデータスタイル誘導拡散モデル(DS-Diffusion)を提案する。
DS-Diffusionは、条件付きガイダンスを導入するためにフレームワーク全体をトレーニングするのを避ける。
生成されたサンプルは、それらが発するデータスタイルを明確に示すことができる。
論文 参考訳(メタデータ) (2025-09-23T03:06:39Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - Guided Diffusion Sampling on Function Spaces with Applications to PDEs [112.09025802445329]
PDEに基づく逆問題における条件付きサンプリングのための一般的なフレームワークを提案する。
これは、関数空間拡散モデルと条件付けのためのプラグアンドプレイガイダンスによって達成される。
提案手法は,最先端の固定解像度拡散ベースラインに対して平均32%の精度向上を実現する。
論文 参考訳(メタデータ) (2025-05-22T17:58:12Z) - ADT: Tuning Diffusion Models with Adversarial Supervision [16.974169058917443]
拡散モデルは、真のデータ分布を近似するために前方ノイズ発生過程を反転させることで、優れた画像生成を実現している。
本稿では、最適化中の推論プロセスを刺激し、最終的な出力をトレーニングデータと整合させるために、Adrial Diffusion Tuning (ADT)を提案する。
ADTは、固定されたトレーニング済みのバックボーンと軽量なトレーニング可能なパラメータを備えたシアム-ネットワーク識別器を備えている。
論文 参考訳(メタデータ) (2025-04-15T17:37:50Z) - Identifying Drift, Diffusion, and Causal Structure from Temporal Snapshots [12.57987355677862]
APPEXは、時間境界のみから付加雑音SDEのドリフト、拡散、因果グラフを推定するために設計された反復アルゴリズムである。
APPEXはKulback-Leiblerの真の解への分岐を反復的に減少させ,線形付加雑音SDEのシミュレーションデータに対する効果を示す。
論文 参考訳(メタデータ) (2024-10-30T06:28:21Z) - Denoising diffusion probabilistic models are optimally adaptive to unknown low dimensionality [21.10158431913811]
DDPMは,本質的な低次元データの自動利用により,サンプリングスピードアップを実現することができるかを検討する。
DDPMの繰り返し複雑性は$k$とほぼ線形にスケールすることが証明され、KL分散を用いて分布の相違を測定するのに最適である。
論文 参考訳(メタデータ) (2024-10-24T14:36:12Z) - DiffPuter: Empowering Diffusion Models for Missing Data Imputation [56.48119008663155]
本稿ではDiffPuterについて紹介する。DiffPuterは、データ計算の欠如に対する期待最大化(EM)アルゴリズムと組み合わせた、カスタマイズされた拡散モデルである。
我々の理論的解析は、DiffPuterのトレーニングステップがデータ密度の最大推定値に対応することを示している。
DiffPuterは,最も競争力のある既存手法と比較して,MAEが6.94%,RMSEが4.78%向上した。
論文 参考訳(メタデータ) (2024-05-31T08:35:56Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。