論文の概要: TI-DeepONet: Learnable Time Integration for Stable Long-Term Extrapolation
- arxiv url: http://arxiv.org/abs/2505.17341v1
- Date: Thu, 22 May 2025 23:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.731182
- Title: TI-DeepONet: Learnable Time Integration for Stable Long-Term Extrapolation
- Title(参考訳): TI-DeepONet: 安定した長期外挿のための学習可能な時間統合
- Authors: Dibyajyoti Nayak, Somdatta Goswami,
- Abstract要約: TI-DeepONetは、ニューラルネットワークと適応的な数値タイムステッピング技術を統合するフレームワークである。
本研究は,ニューラルネットワークを数値解析でブリッジする物理認識演算子学習パラダイムを確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate temporal extrapolation presents a fundamental challenge for neural operators in modeling dynamical systems, where reliable predictions must extend significantly beyond the training time horizon. Conventional Deep Operator Network (DeepONet) approaches employ two inherently limited training paradigms - fixed-horizon rollouts that predict complete spatiotemporal solutions while disregarding temporal causality, and autoregressive formulations that accumulate errors through sequential predictions. We introduce TI-DeepONet, a framework that integrates neural operators with adaptive numerical time-stepping techniques to preserve the Markovian structure of dynamical systems while mitigating error propagation in extended temporal forecasting. Our approach reformulates the learning objective from direct state prediction to the approximation of instantaneous time-derivative fields, which are then integrated using established numerical schemes. This architecture supports continuous-time prediction and enables deployment of higher-precision integrators during inference than those used during training, balancing computational efficiency with predictive accuracy. We further develop TI(L)-DeepONet, which incorporates learnable coefficients for intermediate slopes in the integration process, adapting to solution-specific variations and enhancing fidelity. Evaluation across three canonical PDEs shows that TI(L)-DeepONet marginally outperforms TI-DeepONet, with both reducing relative L2 extrapolation errors: approximately 81% over autoregressive and 70% over fixed-horizon methods. Notably, both maintain prediction stability for temporal domains extending to about twice the training interval. This research establishes a physics-aware operator learning paradigm that bridges neural approximation with numerical analysis while preserving the causal structure of dynamical systems.
- Abstract(参考訳): 正確な時間外挿は、トレーニング時間地平線を超えて信頼性のある予測が大幅に拡張されなければならない、力学系のモデリングにおける神経オペレーターにとって根本的な課題である。
従来のDeep Operator Network(DeepONet)アプローチでは、時間的因果性を無視しながら完全な時空間解を予測する固定水平ロールアウトと、逐次予測を通じてエラーを蓄積する自己回帰式という、本質的に制限されたトレーニングパラダイムが採用されている。
本稿では,時間的拡張予測において誤りの伝播を緩和しつつ,動的システムのマルコフ構造を保存するために,ニューラルネットワークと適応的な数値的タイムステッピング技術を統合するフレームワークTI-DeepONetを紹介する。
提案手法は, 学習目標を, 直接状態予測から即時時間微分場の近似へと再構成し, 確立された数値スキームを用いて統合する。
このアーキテクチャは、連続時間予測をサポートし、トレーニングで使用されるものよりも高速なインテグレータの配置を可能にし、計算効率と予測精度のバランスをとる。
さらに,統合過程における中間斜面の学習可能な係数を組み込んだTI(L)-DeepONetを開発した。
3つの標準PDEで評価したところ、TI(L)-DeepONetは相対的なL2外挿誤差を約81%、固定水平法で70%減らし、TI-DeepONetをわずかに上回っている。
特に、両者はトレーニング間隔の約2倍に延びる時間領域の予測安定性を維持している。
本研究は,力学系の因果構造を保ちながら,数値解析で神経近似をブリッジする物理認識演算子学習パラダイムを確立する。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - BiDepth Multimodal Neural Network: Bidirectional Depth Deep Learning Architecture for Spatial-Temporal Prediction [4.263291797886899]
本稿では,双方向深度変調を用いたBDMNN(BiDepth Multimodal Neural Network)を提案する。
ケーススタディでは,都市交通予測のための平均二乗誤差を12%削減し,降雨予測を15%改善した。
論文 参考訳(メタデータ) (2025-01-14T19:59:59Z) - Stabilizing Machine Learning Prediction of Dynamics: Noise and
Noise-inspired Regularization [58.720142291102135]
近年、機械学習(ML)モデルはカオス力学系の力学を正確に予測するために訓練可能であることが示されている。
緩和技術がなければ、この技術は人工的に迅速にエラーを発生させ、不正確な予測と/または気候不安定をもたらす可能性がある。
トレーニング中にモデル入力に付加される多数の独立雑音実効化の効果を決定論的に近似する正規化手法であるLinearized Multi-Noise Training (LMNT)を導入する。
論文 参考訳(メタデータ) (2022-11-09T23:40:52Z) - Deep Convolutional Architectures for Extrapolative Forecast in
Time-dependent Flow Problems [0.0]
深層学習技術は、対流に支配された問題に対するシステムの力学をモデル化するために用いられる。
これらのモデルは、PDEから得られた連続した時間ステップに対する高忠実度ベクトル解のシーケンスとして入力される。
ディープオートエンコーダネットワークのような非侵襲的な低次モデリング技術を用いて高忠実度スナップショットを圧縮する。
論文 参考訳(メタデータ) (2022-09-18T03:45:56Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。