論文の概要: Foundation Inference Models for Ordinary Differential Equations
- arxiv url: http://arxiv.org/abs/2602.08733v1
- Date: Mon, 09 Feb 2026 14:39:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.299157
- Title: Foundation Inference Models for Ordinary Differential Equations
- Title(参考訳): 正規微分方程式の基底推定モデル
- Authors: Maximilian Mauel, Johannes R. Hübers, David Berghaus, Patrick Seifner, Ramses J. Sanchez,
- Abstract要約: 低次元のODE推論を補正するFIM-ODEを提案する。
我々は、低次ベクトル場を持つODE上の事前分布にFIM-ODEを事前学習し、ニューラル演算子で対象フィールドを表現する。
プレトレーニングはまた、ファインチューニングのための強力な初期化を提供し、現代のニューラルベースラインやGPベースラインを上回る高速で安定した適応を可能にする。
- 参考スコア(独自算出の注目度): 3.4253416336476246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ordinary differential equations (ODEs) are central to scientific modelling, but inferring their vector fields from noisy trajectories remains challenging. Current approaches such as symbolic regression, Gaussian process (GP) regression, and Neural ODEs often require complex training pipelines and substantial machine learning expertise, or they depend strongly on system-specific prior knowledge. We propose FIM-ODE, a pretrained Foundation Inference Model that amortises low-dimensional ODE inference by predicting the vector field directly from noisy trajectory data in a single forward pass. We pretrain FIM-ODE on a prior distribution over ODEs with low-degree polynomial vector fields and represent the target field with neural operators. FIM-ODE achieves strong zero-shot performance, matching and often improving upon ODEFormer, a recent pretrained symbolic baseline, across a range of regimes despite using a simpler pretraining prior distribution. Pretraining also provides a strong initialisation for finetuning, enabling fast and stable adaptation that outperforms modern neural and GP baselines without requiring machine learning expertise.
- Abstract(参考訳): 通常の微分方程式(ODE)は科学的モデリングの中心であるが、ノイズ軌道からベクトル場を推定することは依然として困難である。
シンボリック回帰、ガウス過程(GP)回帰、ニューラルODEといった現在のアプローチは、複雑なトレーニングパイプラインと大規模な機械学習の専門知識を必要とする場合が多く、システム固有の事前知識に強く依存する。
本研究では,FIM-ODEを提案する。FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE,FIM-ODE。
低次多項式ベクトル場を持つODEの事前分布にFIM-ODEを事前学習し、ニューラル演算子を用いて対象フィールドを表現する。
FIM-ODEは、より単純な事前訓練された事前分布を使用しながらも、様々なレギュラーにわたって、最近の事前訓練されたシンボルベースラインであるODEFormerに対して、強力なゼロショット性能、マッチング、そしてしばしば改善を行う。
Pretrainingはまた、ファインチューニングのための強力な初期化を提供し、機械学習の専門知識を必要とせずに、現代のニューラルネットワークとGPベースラインを上回る高速で安定した適応を可能にする。
関連論文リスト
- CODE: A global approach to ODE dynamics learning [1.1499574149885023]
データ駆動設定では、ODEの右辺(RHS)を学習する。
この作業では、多項Chaos ODE拡張であるChaosODE(CODE)を紹介します。
Lotka-Volterra システムにおける CODE の性能評価を行った。
論文 参考訳(メタデータ) (2025-11-19T17:04:24Z) - Towards Foundation Inference Models that Learn ODEs In-Context [3.4253416336476246]
FIM-ODE(Foundation Inference Model for ODEs, FIM-ODE)を導入する。
合成データに基づいてトレーニングされたこのモデルは、フレキシブルなニューラル演算子を使用して、破損したデータからでも堅牢なODE推論を行う。
実験により,FIM-ODEが精度の高い推定値を提供し,その推定ベクトル場の構造を定性的に比較した。
論文 参考訳(メタデータ) (2025-10-14T15:44:54Z) - Efficient Regression-Based Training of Normalizing Flows for Boltzmann Generators [85.25962679349551]
ボルツマン・ジェネレータ(BG)は効率的なサンプリングと可能性を提供するが、最大可能性によるトレーニングはしばしば不安定であり、計算的に困難である。
本稿では,従来の最大値トレーニングの数値不安定性と計算課題を回避し,新しい,スケーラブルなトレーニング目標である正規化フローの回帰トレーニングを提案する。
論文 参考訳(メタデータ) (2025-06-01T20:32:27Z) - Efficient Training of Physics-enhanced Neural ODEs via Direct Collocation and Nonlinear Programming [0.0]
本稿では,物理強調型ニューラルネットワーク(PeN-ODE)を動的最適化問題として表現することで,新しいトレーニング手法を提案する。
ニューラル成分を含む全モデルは、レジェンド=ガウス=ラダウ点を反転させた高次暗黙のルンゲ=クッタ法を用いて離散化される。
この定式化は、ネットワークパラメータと状態軌跡の同時最適化を可能にし、安定性、ランタイム、精度の観点からODEソルバベースのトレーニングの重要な制限に対処する。
論文 参考訳(メタデータ) (2025-05-06T14:04:46Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Bayesian Gaussian Process ODEs via Double Normalizing Flows [27.015257976208737]
本稿では,ODEベクトル場を再パラメータ化するために正規化フローを導入し,データ駆動の事前分布を導出する。
また, GP ODE の後部推定に正規化フローを適用し, 強平均場仮定の問題を解く。
シミュレーション力学系と実世界の人間の動作データに対するアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2023-09-17T09:28:47Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - STEER: Simple Temporal Regularization For Neural ODEs [80.80350769936383]
トレーニング中のODEの終了時刻をランダムにサンプリングする新しい正規化手法を提案する。
提案された正規化は実装が簡単で、オーバーヘッドを無視でき、様々なタスクで有効である。
本稿では,フローの正規化,時系列モデル,画像認識などの実験を通じて,提案した正規化がトレーニング時間を大幅に短縮し,ベースラインモデルよりも性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-06-18T17:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。