論文の概要: Latent-Variable Learning of SPDEs via Wiener Chaos
- arxiv url: http://arxiv.org/abs/2602.11794v1
- Date: Thu, 12 Feb 2026 10:19:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.766263
- Title: Latent-Variable Learning of SPDEs via Wiener Chaos
- Title(参考訳): Wiener Chaosを用いたSPDEの潜在変数学習
- Authors: Sebastian Zeng, Andreas Petersson, Wolfgang Bock,
- Abstract要約: 線形偏微分方程式(SPDE)の法則を観測から加法的ガウス強制で学習する問題について検討する。
提案手法はスペクトルガレルキン射影と乱れたウィナーカオス展開を組み合わせ、進化と強制領域を分離する。
これにより、無限次元決定論的SPDEは、潜時時間力学を管理するパラメタライズされた常微分方程式の有限系に還元される。
- 参考スコア(独自算出の注目度): 2.0901018134712297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of learning the law of linear stochastic partial differential equations (SPDEs) with additive Gaussian forcing from spatiotemporal observations. Most existing deep learning approaches either assume access to the driving noise or initial condition, or rely on deterministic surrogate models that fail to capture intrinsic stochasticity. We propose a structured latent-variable formulation that requires only observations of solution realizations and learns the underlying randomly forced dynamics. Our approach combines a spectral Galerkin projection with a truncated Wiener chaos expansion, yielding a principled separation between deterministic evolution and stochastic forcing. This reduces the infinite-dimensional SPDE to a finite system of parametrized ordinary differential equations governing latent temporal dynamics. The latent dynamics and stochastic forcing are jointly inferred through variational learning, allowing recovery of stochastic structure without explicit observation or simulation of noise during training. Empirical evaluation on synthetic data demonstrates state-of-the-art performance under comparable modeling assumptions across bounded and unbounded one-dimensional spatial domains.
- Abstract(参考訳): 本研究では,線形確率偏微分方程式(SPDE)の法則を時空間観測から加法的ガウス強制で学習する問題について検討する。
既存のディープラーニングアプローチの多くは、駆動ノイズや初期状態へのアクセスを前提とするか、あるいは本質的な確率性を捉えるのに失敗する決定論的代理モデルに依存している。
本稿では,解実現の観測のみを必要とする構造付き潜在変数の定式化を提案し,その基礎となるランダム強制力学を学習する。
提案手法では,スペクトルガレルキン射影と乱雑なウィナーカオス展開を組み合わせ,決定論的進化と確率的強制の原理的分離を導出する。
これにより、無限次元のSPDEは、潜時時力学を管理するパラメタライズされた常微分方程式の有限系に還元される。
潜在力学と確率的強制は変分学習によって共同で推論され、学習中のノイズの明示的な観察やシミュレーションなしに確率的構造の回復を可能にする。
合成データに対する経験的評価は、有界領域と非有界領域における同値なモデリング仮定の下での最先端性能を示す。
関連論文リスト
- An Elementary Approach to Scheduling in Generative Diffusion Models [55.171367482496755]
生成拡散モデルにおけるノイズスケジューリングと時間離散化の影響を特徴付けるための基礎的手法を開発した。
異なるデータセットと事前訓練されたモデルにわたる実験により、我々のアプローチによって選択された時間離散化戦略が、ベースラインとサーチベースの戦略を一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-20T05:06:26Z) - Stochastic Deep Learning: A Probabilistic Framework for Modeling Uncertainty in Structured Temporal Data [0.0]
構造化データと時間的データを含む機械学習アプリケーションにおける不確実性を改善するために、微分方程式(SDE)を深層生成モデルと統合する新しいフレームワークを提案する。
このアプローチはLatent Differential Inference (SLDI)と呼ばれ、変分オートエンコーダの潜時空間にIt SDEを埋め込む。
SDEのドリフトと拡散の項はニューラルネットワークによってパラメータ化され、データ駆動推論と古典的時系列モデルにより不規則なサンプリングと複雑な動的構造を扱うことができる。
論文 参考訳(メタデータ) (2026-01-08T18:53:59Z) - Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - Self-induced stochastic resonance: A physics-informed machine learning approach [0.0]
自己誘発共鳴(英: Self-induced resonance, SISR)は、ノイズのみによって駆動される励起系におけるコヒーレント振動の出現である。
本研究は、フィッツヒューニューロンにおけるSISRのモデリングと予測のための物理インフォームド機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-26T21:49:20Z) - Uncertainty Propagation Networks for Neural Ordinary Differential Equations [3.53219160875623]
不確実性伝播ネットワーク(UPN)は、不確実性定量化を連続時間モデリングに自然に組み込む神経微分方程式の新たなファミリーである。
このアーキテクチャは、離散化アーティファクトを使わずに非線形力学を通じて不確実性を効率的に伝播する。
実験結果は、不確実な定量化を伴う連続正規化フロー(CNFs)、よく校正された信頼区間を持つ時系列予測、安定系とカオス系のどちらにおいても頑健な軌道予測である。
論文 参考訳(メタデータ) (2025-08-22T22:24:46Z) - Generative Latent Neural PDE Solver using Flow Matching [8.397730500554047]
低次元の潜伏空間にPDE状態を埋め込んだPDEシミュレーションのための潜伏拡散モデルを提案する。
我々のフレームワークは、オートエンコーダを使用して、異なるタイプのメッシュを統一された構造化潜在グリッドにマッピングし、複雑なジオメトリをキャプチャします。
数値実験により,提案モデルは,精度と長期安定性の両方において,決定論的ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-03-28T16:44:28Z) - Accurate deep learning-based filtering for chaotic dynamics by identifying instabilities without an ensemble [0.5936407204316615]
深層学習とカオス力学のためのデータ同化スキームを発見する能力について検討する。
その焦点は、単純な残差畳み込みニューラルネットワークを用いて、状態軌跡とその観察から、DAの分析ステップを学ぶことである。
論文 参考訳(メタデータ) (2024-08-08T19:44:57Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Structure-Preserving Learning Using Gaussian Processes and Variational
Integrators [62.31425348954686]
本稿では,機械系の古典力学に対する変分積分器と,ガウス過程の回帰による残留力学の学習の組み合わせを提案する。
我々は、既知のキネマティック制約を持つシステムへのアプローチを拡張し、予測の不確実性に関する公式な境界を提供する。
論文 参考訳(メタデータ) (2021-12-10T11:09:29Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。