論文の概要: Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning
- arxiv url: http://arxiv.org/abs/2206.10588v1
- Date: Tue, 21 Jun 2022 17:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 15:16:11.452298
- Title: Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning
- Title(参考訳): 深い学習を通して線形PDEを解くためのロバストSDEに基づく変分式
- Authors: Lorenz Richter, Julius Berner
- Abstract要約: モンテカルロ法とディープラーニングを組み合わせることで、高次元の偏微分方程式(PDE)を解くアルゴリズムが効率的になった。
関連する学習問題は、しばしば関連する微分方程式(SDE)に基づく変分定式化として記述される。
したがって、収束を正確にかつ迅速に到達するためには、低分散を示す適切な勾配推定器に頼ることが重要である。
- 参考スコア(独自算出の注目度): 6.1678491628787455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The combination of Monte Carlo methods and deep learning has recently led to
efficient algorithms for solving partial differential equations (PDEs) in high
dimensions. Related learning problems are often stated as variational
formulations based on associated stochastic differential equations (SDEs),
which allow the minimization of corresponding losses using gradient-based
optimization methods. In respective numerical implementations it is therefore
crucial to rely on adequate gradient estimators that exhibit low variance in
order to reach convergence accurately and swiftly. In this article, we
rigorously investigate corresponding numerical aspects that appear in the
context of linear Kolmogorov PDEs. In particular, we systematically compare
existing deep learning approaches and provide theoretical explanations for
their performances. Subsequently, we suggest novel methods that can be shown to
be more robust both theoretically and numerically, leading to substantial
performance improvements.
- Abstract(参考訳): 近年,モンテカルロ法とディープラーニングの組み合わせにより,偏微分方程式(PDE)を高次元で解くアルゴリズムが提案されている。
関連する学習問題はしばしば、関連する確率微分方程式(sdes)に基づく変分定式化として記述され、勾配に基づく最適化法を用いて対応する損失を最小化することができる。
したがって、各数値的実装において、収束を正確かつ迅速に到達するために、低分散を示す適切な勾配推定子に依存することが不可欠である。
本稿では,線形コルモゴロフPDEの文脈に現れる対応する数値的側面について,厳密に検討する。
特に,既存のディープラーニング手法を体系的に比較し,その性能に関する理論的説明を提供する。
その後, 理論上, 数値的にもより頑健であることを示す新しい手法を提案することにより, 性能が大幅に向上した。
関連論文リスト
- Estimating unknown parameters in differential equations with a reinforcement learning based PSO method [2.9808905403445145]
本稿では,粒子の概念を導入することにより,微分方程式のパラメータ推定問題を最適化問題として再検討する。
本稿では、強化学習に基づく粒子群最適化(RLLPSO)に基づいて、微分方程式の未知パラメータを推定する新しい手法DERLPSOを提案する。
実験の結果,DERLPSOは平均1.13e-05の誤差を達成し,他の手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-11-13T14:40:51Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Sequential-in-time training of nonlinear parametrizations for solving time-dependent partial differential equations [21.992668884092055]
この研究は、シーケンシャル・イン・タイムのトレーニング手法がOtD(Optimized-then-Discretize)またはDtO(disretize-then-Optimize)スキームとして広く理解可能であることを示している。
論文 参考訳(メタデータ) (2024-04-01T14:45:16Z) - Amortized Reparametrization: Efficient and Scalable Variational
Inference for Latent SDEs [3.2634122554914002]
本稿では,データ量,時系列の総長さ,近似微分方程式の剛性と独立にスケールする時間とメモリコストで潜在微分方程式を推定する問題を考察する。
これは、メモリコストが一定であるにもかかわらず、近似微分方程式の剛性に大きく依存する時間複雑性を持つ遅延微分方程式を推論する典型的な方法とは対照的である。
論文 参考訳(メタデータ) (2023-12-16T22:27:36Z) - From continuous-time formulations to discretization schemes: tensor
trains and robust regression for BSDEs and parabolic PDEs [3.785123406103385]
テンソルトレインは放物型PDEの魅力ある枠組みであると主張する。
計算効率と頑健性の点で異なる反復型スキームを開発する。
本手法が精度と計算効率のトレードオフを良好に達成できることを理論的および数値的に実証する。
論文 参考訳(メタデータ) (2023-07-28T11:44:06Z) - Non-Parametric Learning of Stochastic Differential Equations with Non-asymptotic Fast Rates of Convergence [65.63201894457404]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Last-Iterate Convergence of Saddle-Point Optimizers via High-Resolution
Differential Equations [83.3201889218775]
広く使われている1次サドル点最適化法は、帰納的導出時に同一の連続時間常微分方程式(ODE)を導出する。
しかし、これらの方法の収束特性は、単純な双線型ゲームでさえ質的に異なる。
いくつかのサドル点最適化法のための微分方程式モデルの設計に流体力学の研究フレームワークを採用する。
論文 参考訳(メタデータ) (2021-12-27T18:31:34Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。