論文の概要: Convergence of the generalization error for deep gradient flow methods for PDEs
- arxiv url: http://arxiv.org/abs/2512.25017v1
- Date: Wed, 31 Dec 2025 18:11:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.740029
- Title: Convergence of the generalization error for deep gradient flow methods for PDEs
- Title(参考訳): PDEの深い勾配流法における一般化誤差の収束性
- Authors: Chenguang Liu, Antonis Papapantoleon, Jasper Rou,
- Abstract要約: DGFMの一般化誤差を近似とトレーニング誤差に分解する。
まず、妥当かつ検証可能な仮定を満たすPDEの解がニューラルネットワークによって近似可能であることを示す。
次に、トレーニングプロセスが広いネットワーク限界に従う勾配流を導出し、トレーニング時間が無限大になる傾向にあるため、この流れの限界を分析する。
- 参考スコア(独自算出の注目度): 7.385451225040107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The aim of this article is to provide a firm mathematical foundation for the application of deep gradient flow methods (DGFMs) for the solution of (high-dimensional) partial differential equations (PDEs). We decompose the generalization error of DGFMs into an approximation and a training error. We first show that the solution of PDEs that satisfy reasonable and verifiable assumptions can be approximated by neural networks, thus the approximation error tends to zero as the number of neurons tends to infinity. Then, we derive the gradient flow that the training process follows in the ``wide network limit'' and analyze the limit of this flow as the training time tends to infinity. These results combined show that the generalization error of DGFMs tends to zero as the number of neurons and the training time tend to infinity.
- Abstract(参考訳): 本論文の目的は、(高次元)偏微分方程式(PDE)の解に対する深勾配流法(DGFMs)の適用のための厳密な数学的基礎を提供することである。
DGFMの一般化誤差を近似とトレーニング誤差に分解する。
まず、妥当で検証可能な仮定を満たすPDEの解がニューラルネットワークによって近似できることを示し、その結果、ニューロンの数が無限大になるにつれて近似誤差はゼロになる傾向にあることを示した。
次に、トレーニングプロセスが'ワイド・ネットワーク・リミット'で従う勾配流れを導出し、トレーニング時間が無限になる傾向にあるため、このフローの限界を分析する。
これらの結果は、DGFMsの一般化誤差は神経細胞の数とトレーニング時間によってゼロになる傾向にあることを示した。
関連論文リスト
- Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Global Convergence of Deep Galerkin and PINNs Methods for Solving
Partial Differential Equations [0.0]
ニューラルネットワークを用いて解を近似することにより、高次元PDEを解くための様々なディープラーニング手法が開発されている。
我々はPDEの解法であるDeep Galerkin MethodDGM(ディープ・ガレルキン・メソッドDGM)の解法として広く使われているディープラーニングアルゴリズムの1つである。
論文 参考訳(メタデータ) (2023-05-10T09:20:11Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Local neural operator for solving transient partial differential
equations on varied domains [8.905324065830861]
そこで本稿では,PDE(Transient partial differential equation)の解法として局所ニューラル演算子(LNO)を提案する。
境界処理を含む便利な戦略が組み合わさり、1つの事前訓練されたLNOが、異なるドメインでのソリューションを予測することができる。
LNO はランダムに生成されたデータサンプルから Navier-Stokes 方程式を学習し、事前学習した LNO を明示的な数値マーチングスキームとして使用する。
論文 参考訳(メタデータ) (2022-03-11T06:41:51Z) - Stationary Density Estimation of It\^o Diffusions Using Deep Learning [6.8342505943533345]
離散時間系列からのエルゴード的伊藤拡散の定常測度に関連する密度推定問題を考察する。
我々は深層ニューラルネットワークを用いてSDEのドリフトと拡散の項を近似する。
我々は、適切な数学的仮定の下で提案されたスキームの収束を確立する。
論文 参考訳(メタデータ) (2021-09-09T01:57:14Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - A Dynamical Central Limit Theorem for Shallow Neural Networks [48.66103132697071]
平均極限の周りのゆらぎは、トレーニングを通して平均正方形に有界であることを証明する。
平均場ダイナミクスがトレーニングデータを補間する尺度に収束すると、最終的にCLTスケーリングにおいて偏差が消えることを示す。
論文 参考訳(メタデータ) (2020-08-21T18:00:50Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。