論文の概要: Convergence analysis of a quasi-Monte Carlo-based deep learning
algorithm for solving partial differential equations
- arxiv url: http://arxiv.org/abs/2210.16196v1
- Date: Fri, 28 Oct 2022 15:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:52:50.945024
- Title: Convergence analysis of a quasi-Monte Carlo-based deep learning
algorithm for solving partial differential equations
- Title(参考訳): 偏微分方程式解のための準モンテカルロ型深層学習アルゴリズムの収束解析
- Authors: Fengjiang Fu and Xiaoqun Wang
- Abstract要約: ポアソン方程式と静的シュリンガー方程式のノイマン問題の解法として準モンテカルロ法(QMC)をディープリッツ法(DRM)に適用することを提案する。
誤差推定では、深層学習アルゴリズムを用いてPDEを解いた誤差を一般化誤差、近似誤差、訓練誤差に分解する。
数値実験により,提案手法はすべてのケースにおいてより高速に収束し,ランダム化QMCベースのDRMの勾配推定器の分散はDRMよりもはるかに小さいことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have achieved great success in solving partial
differential equations (PDEs), where the loss is often defined as an integral.
The accuracy and efficiency of these algorithms depend greatly on the
quadrature method. We propose to apply quasi-Monte Carlo (QMC) methods to the
Deep Ritz Method (DRM) for solving the Neumann problems for the Poisson
equation and the static Schr\"{o}dinger equation. For error estimation, we
decompose the error of using the deep learning algorithm to solve PDEs into the
generalization error, the approximation error and the training error. We
establish the upper bounds and prove that QMC-based DRM achieves an
asymptotically smaller error bound than DRM. Numerical experiments show that
the proposed method converges faster in all cases and the variances of the
gradient estimators of randomized QMC-based DRM are much smaller than those of
DRM, which illustrates the superiority of QMC in deep learning over MC.
- Abstract(参考訳): 深層学習法は偏微分方程式(PDE)の解法において大きな成功を収めており、損失はしばしば積分として定義される。
これらのアルゴリズムの精度と効率は二次法に大きく依存する。
本稿では,ポアソン方程式のノイマン問題と静的schr\"{o}dinger方程式を解くために,準モンテカルロ法(qmc)をディープリッツ法(drm)に適用することを提案する。
誤差推定では、深層学習アルゴリズムを用いてPDEを解いた誤差を一般化誤差、近似誤差、訓練誤差に分解する。
上位境界を確立し、QMCベースのDRMがDRMよりも漸近的に小さい誤差を達成できることを証明する。
数値実験により,提案手法はすべてのケースにおいてより高速に収束し,ランダム化されたQMCベースのDRMの勾配推定器のばらつきはDRMのそれよりもはるかに小さいことがわかった。
関連論文リスト
- Randomized Physics-Informed Machine Learning for Uncertainty
Quantification in High-Dimensional Inverse Problems [49.1574468325115]
本研究では,高次元逆問題における不確実性定量化のための物理インフォームド機械学習手法を提案する。
我々は解析的に、そして、ハミルトン・モンテカルロとの比較を通して、rPICKLE はベイズ則によって与えられる真の後続に収束することを示す。
論文 参考訳(メタデータ) (2023-12-11T07:33:16Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Deep learning numerical methods for high-dimensional fully nonlinear
PIDEs and coupled FBSDEs with jumps [26.28912742740653]
高次元放物型積分微分方程式(PIDE)を解くためのディープラーニングアルゴリズムを提案する。
ジャンプ拡散過程はブラウン運動と独立補償ポアソンランダム測度によって導出される。
この深層学習アルゴリズムの誤差推定を導出するために,マルコビアンの収束,オイラー時間離散化の誤差境界,および深層学習アルゴリズムのシミュレーション誤差について検討した。
論文 参考訳(メタデータ) (2023-01-30T13:55:42Z) - Multi-fidelity Monte Carlo: a pseudo-marginal approach [21.05263506153674]
モンテカルロを科学分野に適用する上で重要な課題は計算である。
多忠実MCMCアルゴリズムは、近似目標密度を得るために、様々な忠実度のモデルを組み合わせる。
我々は、より安価でランダムな非バイアス推定器を用いたマルチフィデリティ推定のための疑似マージ型MCMCアプローチを採用する。
論文 参考訳(メタデータ) (2022-10-04T11:27:40Z) - Posterior and Computational Uncertainty in Gaussian Processes [52.26904059556759]
ガウスのプロセスはデータセットのサイズとともに違法にスケールする。
多くの近似法が開発されており、必然的に近似誤差を導入している。
この余分な不確実性の原因は、計算が限られているため、近似後部を使用すると完全に無視される。
本研究では,観測された有限個のデータと有限個の計算量の両方から生じる組合せ不確実性を一貫した推定を行う手法の開発を行う。
論文 参考訳(メタデータ) (2022-05-30T22:16:25Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Fast Doubly-Adaptive MCMC to Estimate the Gibbs Partition Function with
Weak Mixing Time Bounds [7.428782604099876]
Gibbs分布の実践的応用に対する大きな障害は、それらの分割関数を見積もる必要があることである。
本稿では,分割関数を厳密に推定する計算複雑性を低減する手法を提案する。
論文 参考訳(メタデータ) (2021-11-14T15:42:02Z) - Machine Learning For Elliptic PDEs: Fast Rate Generalization Bound,
Neural Scaling Law and Minimax Optimality [11.508011337440646]
楕円偏微分方程式(PDE)をランダムサンプルから解くための深層学習手法の統計的限界について検討する。
この問題を単純化するために、ディリクレ境界条件がゼロのハイパーキューブ上のシュル・オーディンガー方程式(英語版)という楕円型PDEのプロトタイプに焦点をあてる。
両手法の上限値と下限値を確立し,この問題に対して同時に開発された上限値を改善する。
論文 参考訳(メタデータ) (2021-10-13T17:26:31Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - The Seven-League Scheme: Deep learning for large time step Monte Carlo
simulations of stochastic differential equations [0.0]
微分方程式(SDE)を解くための高精度なデータ駆動数値スキームを提案する。
SDE離散化は、正確に決定された(SC)点に基づいてカオス展開法により構築される。
圧縮圧縮とコロケーションという手法により、学習すべきニューラルネットワーク関数の数を劇的に減らすことができる。
論文 参考訳(メタデータ) (2020-09-07T16:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。