論文の概要: FBSJNN: A Theoretically Interpretable and Efficiently Deep Learning method for Solving Partial Integro-Differential Equations
- arxiv url: http://arxiv.org/abs/2412.11010v1
- Date: Sun, 15 Dec 2024 01:37:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:55:37.957853
- Title: FBSJNN: A Theoretically Interpretable and Efficiently Deep Learning method for Solving Partial Integro-Differential Equations
- Title(参考訳): FBSJNN:部分積分微分方程式を解くための理論的に解釈可能かつ効率的な深層学習法
- Authors: Zaijun Ye, Wansheng Wang,
- Abstract要約: 本稿では, 深層学習に基づく手法を用いて, 部分積分微分方程式(PIDE)のクラスを解くための新しい枠組みを提案する。
この手法はFBNN(Forward-Backward Jump Neural Network)と呼ばれ、理論的に解釈可能であり、数値的に有効である。
数値実験により,FBSJNN法は10~3ドル程度の相対誤差で数値解が得られることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We propose a novel framework for solving a class of Partial Integro-Differential Equations (PIDEs) and Forward-Backward Stochastic Differential Equations with Jumps (FBSDEJs) through a deep learning-based approach. This method, termed the Forward-Backward Stochastic Jump Neural Network (FBSJNN), is both theoretically interpretable and numerically effective. Theoretical analysis establishes the convergence of the numerical scheme and provides error estimates grounded in the universal approximation properties of neural networks. In comparison to existing methods, the key innovation of the FBSJNN framework is that it uses a single neural network to approximate both the solution of the PIDEs and the non-local integral, leveraging Taylor expansion for the latter. This enables the method to reduce the total number of parameters in FBSJNN, which enhances optimization efficiency. Numerical experiments indicate that the FBSJNN scheme can obtain numerical solutions with a relative error on the scale of $10^{-3}$.
- Abstract(参考訳): 本稿では,PIDEとFBSDEJを用いた前方確率微分方程式のクラスを,深層学習に基づくアプローチで解くための新しい枠組みを提案する。
この手法はFBSJNN(Forward-Backward Stochastic Jump Neural Network)と呼ばれ、理論的に解釈可能で数値的に有効である。
理論的解析は、数値スキームの収束を確立し、ニューラルネットワークの普遍近似特性に基づく誤差推定を提供する。
既存の手法と比較して、FBSJNNフレームワークの重要な革新は、単一のニューラルネットワークを使用して、PIDEの解と非局所積分の両方を近似し、後者のためにTaylor拡張を活用することである。
これにより、FBSJNNにおけるパラメータの総数を削減することができ、最適化効率が向上する。
数値実験により、FBSJNNスキームは10^{-3}$の相対誤差で数値解を得ることができることが示された。
関連論文リスト
- Solving Poisson Equations using Neural Walk-on-Spheres [80.1675792181381]
高次元ポアソン方程式の効率的な解法としてニューラルウォーク・オン・スフェース(NWoS)を提案する。
我々は,NWoSの精度,速度,計算コストにおける優位性を実証した。
論文 参考訳(メタデータ) (2024-06-05T17:59:22Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - HNS: An Efficient Hermite Neural Solver for Solving Time-Fractional
Partial Differential Equations [12.520882780496738]
時間-屈折偏微分方程式を解くための高精度ハーマイトニューラルソルバー(HNS)を提案する。
実験の結果,HNSは既存のL1法に比べて精度と柔軟性が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-10-07T12:44:47Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Deep Graphic FBSDEs for Opinion Dynamics Stochastic Control [27.38625075499457]
本稿では,動的・コスト関数における平均場項結合を用いた意見力学の最適制御問題の解法として,スケーラブルなディープラーニング手法を提案する。
提案したフレームワークは,超大規模問題に対する将来の応用の可能性を開く。
論文 参考訳(メタデータ) (2022-04-05T22:07:32Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Conjugate Gradient Method for Generative Adversarial Networks [0.0]
深層ニューラルネットワークモデルの密度関数と密度関数のJensen-Shannon分散を計算することは不可能である。
GAN(Generative Adversarial Network)は、この問題をジェネレータと識別器という2つのモデルで識別する問題として定式化することができる。
本稿では,GANの局所的なナッシュ平衡問題の解法として共役勾配法を提案する。
論文 参考訳(メタデータ) (2022-03-28T04:44:45Z) - Efficiently Solving High-Order and Nonlinear ODEs with Rational Fraction
Polynomial: the Ratio Net [3.155317790896023]
本研究では、ニューラルネットワークアーキテクチャを導入して、比重ネットと呼ばれる試行関数を構築することで、異なるアプローチをとる。
実証実験により,提案手法は既存手法と比較して高い効率性を示すことを示した。
比重ネットは、微分方程式の解法効率と有効性を向上させることを約束する。
論文 参考訳(メタデータ) (2021-05-18T16:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。