論文の概要: Convergence proofs and strong error bounds for forward-backward stochastic differential equations using neural network simulations
- arxiv url: http://arxiv.org/abs/2411.01306v2
- Date: Sun, 16 Feb 2025 09:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:02:43.023899
- Title: Convergence proofs and strong error bounds for forward-backward stochastic differential equations using neural network simulations
- Title(参考訳): ニューラルネットワークシミュレーションを用いた前方確率微分方程式の収束証明と強誤差境界
- Authors: Oliver Sheridan-Methven,
- Abstract要約: 我々は、これらの解と偏微分方程式の解との接続を強調する前方微分方程式を導入する。
本稿では,ニューラルネットワークを用いた高次元偏微分方程式の近似解法と,マルチレベルモンテカルロを用いた微分方程式の近似解について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We introduce forward-backward stochastic differential equations, highlighting the connection between solutions of these and solutions of partial differential equations, related by the Feynman-Kac theorem. We review the technique of approximating solutions to high dimensional partial differential equations using neural networks, and similarly approximating solutions of stochastic differential equations using multilevel Monte Carlo. Connecting the multilevel Monte Carlo method with the neural network framework using the setup established by E et al. and Raissi, we provide novel numerical analyses to produce strong error bounds for the specific framework of Raissi. Our results bound the overall strong error in terms of the maximum of the discretisation error and the neural network's approximation error. Our analyses are necessary for applications of multilevel Monte Carlo, for which we propose suitable frameworks to exploit the variance structures of the multilevel estimators we elucidate. Also, focusing on the loss function advocated by Raissi, we expose the limitations of this, highlighting and quantifying its bias and variance. Lastly, we propose various avenues of further research which we anticipate should offer significant insight and speed improvements.
- Abstract(参考訳): フォワード・バックワード確率微分方程式を導入し、これらの解と偏微分方程式の解の関連を、ファインマン・カックの定理に関連付ける。
本稿では,ニューラルネットワークを用いた高次元偏微分方程式の近似解法と,マルチレベルモンテカルロを用いた確率微分方程式の近似解について概説する。
E et al と Raissi の確立したセットアップを用いて,マルチレベルモンテカルロ法をニューラルネットワークフレームワークに接続することにより,Raissi の特定のフレームワークに対して強い誤差境界を生成するための新しい数値解析を行う。
我々の結果は、離散化誤差とニューラルネットワークの近似誤差の最大値の観点から、全体的な強い誤差を束縛した。
マルチレベルモンテカルロの応用には分析が不可欠であり, 解明したマルチレベル推定器の分散構造を利用するための適切なフレームワークを提案する。
また,Raissi が提唱する損失関数に着目し,その限界を明らかにし,バイアスと分散の定量化を行う。
最後に、我々はさらなる研究の様々な道程を提案し、さらなる洞察とスピードの改善を期待する。
関連論文リスト
- A neural network approach for solving the Monge-Ampère equation with transport boundary condition [0.0]
本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
論文 参考訳(メタデータ) (2024-10-25T11:54:00Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Variational Monte Carlo Approach to Partial Differential Equations with
Neural Networks [0.0]
我々は高次元確率分布の進化を規定する偏微分方程式を解くための変分的アプローチを開発する。
我々のアプローチは自然に非有界連続領域に作用し、その変動パラメータを通して全確率密度関数を符号化する。
検討されたベンチマークケースに対しては、従来の計算手法に到達できないレジームにおける解析解と同様に、数値解との優れた一致を観察する。
論文 参考訳(メタデータ) (2022-06-04T07:36:35Z) - Deep Graphic FBSDEs for Opinion Dynamics Stochastic Control [27.38625075499457]
本稿では,動的・コスト関数における平均場項結合を用いた意見力学の最適制御問題の解法として,スケーラブルなディープラーニング手法を提案する。
提案したフレームワークは,超大規模問題に対する将来の応用の可能性を開く。
論文 参考訳(メタデータ) (2022-04-05T22:07:32Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Numerical Solution of Stiff Ordinary Differential Equations with Random
Projection Neural Networks [0.0]
正規微分方程式(ODE)の解に対する乱射影ニューラルネットワーク(RPNN)に基づく数値スキームを提案する。
提案手法は剛性の影響を受けずに高い数値近似精度を示し,textttode45 と textttode15s の関数よりも優れていた。
論文 参考訳(メタデータ) (2021-08-03T15:49:17Z) - A Unified View of Stochastic Hamiltonian Sampling [18.300078015845262]
この研究は、後続サンプリングのためのハミルトン微分方程式(SDE)の理論的性質を再考する。
数値SDEシミュレーションから生じる2種類の誤差について検討し, 離散化誤差と雑音勾配推定による誤差について検討した。
論文 参考訳(メタデータ) (2021-06-30T16:50:11Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。