論文の概要: Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning
- arxiv url: http://arxiv.org/abs/2206.10588v1
- Date: Tue, 21 Jun 2022 17:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 15:16:11.452298
- Title: Robust SDE-Based Variational Formulations for Solving Linear PDEs via
Deep Learning
- Title(参考訳): 深い学習を通して線形PDEを解くためのロバストSDEに基づく変分式
- Authors: Lorenz Richter, Julius Berner
- Abstract要約: モンテカルロ法とディープラーニングを組み合わせることで、高次元の偏微分方程式(PDE)を解くアルゴリズムが効率的になった。
関連する学習問題は、しばしば関連する微分方程式(SDE)に基づく変分定式化として記述される。
したがって、収束を正確にかつ迅速に到達するためには、低分散を示す適切な勾配推定器に頼ることが重要である。
- 参考スコア(独自算出の注目度): 6.1678491628787455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The combination of Monte Carlo methods and deep learning has recently led to
efficient algorithms for solving partial differential equations (PDEs) in high
dimensions. Related learning problems are often stated as variational
formulations based on associated stochastic differential equations (SDEs),
which allow the minimization of corresponding losses using gradient-based
optimization methods. In respective numerical implementations it is therefore
crucial to rely on adequate gradient estimators that exhibit low variance in
order to reach convergence accurately and swiftly. In this article, we
rigorously investigate corresponding numerical aspects that appear in the
context of linear Kolmogorov PDEs. In particular, we systematically compare
existing deep learning approaches and provide theoretical explanations for
their performances. Subsequently, we suggest novel methods that can be shown to
be more robust both theoretically and numerically, leading to substantial
performance improvements.
- Abstract(参考訳): 近年,モンテカルロ法とディープラーニングの組み合わせにより,偏微分方程式(PDE)を高次元で解くアルゴリズムが提案されている。
関連する学習問題はしばしば、関連する確率微分方程式(sdes)に基づく変分定式化として記述され、勾配に基づく最適化法を用いて対応する損失を最小化することができる。
したがって、各数値的実装において、収束を正確かつ迅速に到達するために、低分散を示す適切な勾配推定子に依存することが不可欠である。
本稿では,線形コルモゴロフPDEの文脈に現れる対応する数値的側面について,厳密に検討する。
特に,既存のディープラーニング手法を体系的に比較し,その性能に関する理論的説明を提供する。
その後, 理論上, 数値的にもより頑健であることを示す新しい手法を提案することにより, 性能が大幅に向上した。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for
enhanced binary classification [75.90957645766676]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
我々のアプローチは、クラス間の平均距離を最大化し、クラス内の分散を最小化する能力を確立する形式的な証明によって裏付けられている。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Amortized Reparametrization: Efficient and Scalable Variational
Inference for Latent SDEs [3.2634122554914002]
本稿では,データ量,時系列の総長さ,近似微分方程式の剛性と独立にスケールする時間とメモリコストで潜在微分方程式を推定する問題を考察する。
これは、メモリコストが一定であるにもかかわらず、近似微分方程式の剛性に大きく依存する時間複雑性を持つ遅延微分方程式を推論する典型的な方法とは対照的である。
論文 参考訳(メタデータ) (2023-12-16T22:27:36Z) - From continuous-time formulations to discretization schemes: tensor
trains and robust regression for BSDEs and parabolic PDEs [3.785123406103385]
テンソルトレインは放物型PDEの魅力ある枠組みであると主張する。
計算効率と頑健性の点で異なる反復型スキームを開発する。
本手法が精度と計算効率のトレードオフを良好に達成できることを理論的および数値的に実証する。
論文 参考訳(メタデータ) (2023-07-28T11:44:06Z) - Non-Parametric Learning of Stochastic Differential Equations with Fast
Rates of Convergence [98.37497395992793]
非線形微分方程式のドリフトと拡散係数の同定のための新しい非パラメトリック学習パラダイムを提案する。
鍵となる考え方は、基本的には、対応するフォッカー・プランク方程式のRKHSに基づく近似をそのような観測に適合させることである。
論文 参考訳(メタデータ) (2023-05-24T20:43:47Z) - Multilevel CNNs for Parametric PDEs [0.0]
偏微分方程式に対する多段階解法の概念とニューラルネットワークに基づくディープラーニングを組み合わせる。
より詳細な理論的解析により,提案アーキテクチャは乗算Vサイクルを任意の精度で近似できることを示した。
最先端のディープラーニングベースの解法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-01T21:11:05Z) - SARAH-based Variance-reduced Algorithm for Stochastic Finite-sum
Cocoercive Variational Inequalities [137.6408511310322]
有限サムコヒーレンシブ変分不等式の問題を考える。
強い単調な問題に対しては、この方法を用いて解への線形収束を達成することができる。
論文 参考訳(メタデータ) (2022-10-12T08:04:48Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Last-Iterate Convergence of Saddle-Point Optimizers via High-Resolution
Differential Equations [83.3201889218775]
広く使われている1次サドル点最適化法は、帰納的導出時に同一の連続時間常微分方程式(ODE)を導出する。
しかし、これらの方法の収束特性は、単純な双線型ゲームでさえ質的に異なる。
いくつかのサドル点最適化法のための微分方程式モデルの設計に流体力学の研究フレームワークを採用する。
論文 参考訳(メタデータ) (2021-12-27T18:31:34Z) - Adversarial Multi-task Learning Enhanced Physics-informed Neural
Networks for Solving Partial Differential Equations [9.823102211212582]
本稿では,多タスク学習手法,不確実性強調損失,勾配手術を学習pdeソリューションの文脈で活用する新しいアプローチを提案する。
実験では,提案手法が有効であることが判明し,従来手法と比較して未発見のデータポイントの誤差を低減できた。
論文 参考訳(メタデータ) (2021-04-29T13:17:46Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Solver-in-the-Loop: Learning from Differentiable Physics to Interact
with Iterative PDE-Solvers [26.444103444634994]
認識されたPDEが捉えない効果を補正することにより、機械学習が解の精度を向上させることができることを示す。
従来使用されていた学習手法は,学習ループにソルバを組み込む手法により大幅に性能が向上していることがわかった。
これにより、以前の補正を考慮に入れたリアルな入力分布がモデルに提供される。
論文 参考訳(メタデータ) (2020-06-30T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。