論文の概要: Sequential-in-time training of nonlinear parametrizations for solving time-dependent partial differential equations
- arxiv url: http://arxiv.org/abs/2404.01145v1
- Date: Mon, 1 Apr 2024 14:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:15:37.711037
- Title: Sequential-in-time training of nonlinear parametrizations for solving time-dependent partial differential equations
- Title(参考訳): 時間依存偏微分方程式の解法における非線形パラメトリゼーションの逐次時間トレーニング
- Authors: Huan Zhang, Yifan Chen, Eric Vanden-Eijnden, Benjamin Peherstorfer,
- Abstract要約: この研究は、シーケンシャル・イン・タイムのトレーニング手法がOtD(Optimized-then-Discretize)またはDtO(disretize-then-Optimize)スキームとして広く理解可能であることを示している。
- 参考スコア(独自算出の注目度): 21.992668884092055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential-in-time methods solve a sequence of training problems to fit nonlinear parametrizations such as neural networks to approximate solution trajectories of partial differential equations over time. This work shows that sequential-in-time training methods can be understood broadly as either optimize-then-discretize (OtD) or discretize-then-optimize (DtO) schemes, which are well known concepts in numerical analysis. The unifying perspective leads to novel stability and a posteriori error analysis results that provide insights into theoretical and numerical aspects that are inherent to either OtD or DtO schemes such as the tangent space collapse phenomenon, which is a form of over-fitting. Additionally, the unified perspective facilitates establishing connections between variants of sequential-in-time training methods, which is demonstrated by identifying natural gradient descent methods on energy functionals as OtD schemes applied to the corresponding gradient flows.
- Abstract(参考訳): 逐次インタイム法は、ニューラルネットワークのような非線形パラメトリゼーションを時間とともに偏微分方程式の解軌跡を近似するために、一連の訓練問題を解く。
この研究は、数値解析においてよく知られた概念であるOtD(Optimized-then-Discretize)あるいはDtO(disretize-then-Optimize)スキームとして、シーケンシャル・イン・タイムのトレーニング手法が広く理解可能であることを示している。
統一された視点は、新しい安定性と後続の誤差解析結果をもたらし、これは、過剰適合の形式である接空間崩壊現象のような OtD または DtO スキームに固有の理論的および数値的側面に関する洞察を与える。
さらに、統合された視点は、エネルギー汎関数上の自然勾配降下法を対応する勾配流に適用したOtDスキームとして同定することにより、シーケンシャル・イン・タイム・トレーニング法の変種間の接続を確立することを容易にする。
関連論文リスト
- From continuous-time formulations to discretization schemes: tensor
trains and robust regression for BSDEs and parabolic PDEs [3.785123406103385]
テンソルトレインは放物型PDEの魅力ある枠組みであると主張する。
計算効率と頑健性の点で異なる反復型スキームを開発する。
本手法が精度と計算効率のトレードオフを良好に達成できることを理論的および数値的に実証する。
論文 参考訳(メタデータ) (2023-07-28T11:44:06Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning [6.1678491628787455]
モンテカルロ法とディープラーニングを組み合わせることで、高次元の偏微分方程式(PDE)を解くアルゴリズムが効率的になった。
関連する学習問題は、しばしば関連する微分方程式(SDE)に基づく変分定式化として記述される。
したがって、収束を正確にかつ迅速に到達するためには、低分散を示す適切な勾配推定器に頼ることが重要である。
論文 参考訳(メタデータ) (2022-06-21T17:59:39Z) - Probabilistic Numerical Method of Lines for Time-Dependent Partial
Differential Equations [20.86460521113266]
現在の最先端のPDEソルバは、空間次元と時間次元を別々に、シリアルに、ブラックボックスアルゴリズムで扱います。
この問題を解決するために,ライン法と呼ばれる手法の確率的版を導入する。
空間不確かさと時間不確かさの連成定量化は、十分に調整されたODEソルバの性能上の利点を失うことなく実現できる。
論文 参考訳(メタデータ) (2021-10-22T15:26:05Z) - Galerkin Neural Networks: A Framework for Approximating Variational
Equations with Error Control [0.0]
本稿では,ニューラルネットワークを用いて変分方程式の解を近似する手法を提案する。
基本関数がニューラルネットワークの列の実現である有限次元部分空間の列を用いる。
論文 参考訳(メタデータ) (2021-05-28T20:25:40Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Optimization with Momentum: Dynamical, Control-Theoretic, and Symplectic
Perspectives [97.16266088683061]
この論文は、運動量に基づく最適化アルゴリズムにおいてシンプレクティックな離散化スキームが重要であることを厳格に証明している。
これは加速収束を示すアルゴリズムの特性を提供する。
論文 参考訳(メタデータ) (2020-02-28T00:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。