論文の概要: Deep Neural networks for solving high-dimensional parabolic partial differential equations
- arxiv url: http://arxiv.org/abs/2601.13256v3
- Date: Fri, 23 Jan 2026 21:08:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 13:23:48.782746
- Title: Deep Neural networks for solving high-dimensional parabolic partial differential equations
- Title(参考訳): 高次元放物型偏微分方程式を解くためのディープニューラルネットワーク
- Authors: Wenzhong Zhang, Zheyuan Hu, Wei Cai, George EM Karniadakis,
- Abstract要約: 本稿では,高次元パラボリックPDEを解くニューラルネットワークベースの手法をチュートリアル指向で紹介する。
各パラダイムについて、基礎となる数学的定式化と実践的な強みと限界について概説する。
本稿は,高次元PDEの信頼性と拡張性を実現するためのオープン課題と今後の方向性について論じる。
- 参考スコア(独自算出の注目度): 7.36584254933872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The numerical solution of high dimensional partial differential equations (PDEs) is severely constrained by the curse of dimensionality (CoD), rendering classical grid--based methods impractical beyond a few dimensions. In recent years, deep neural networks have emerged as a promising mesh free alternative, enabling the approximation of PDE solutions in tens to thousands of dimensions. This review provides a tutorial--oriented introduction to neural--network--based methods for solving high dimensional parabolic PDEs, emphasizing conceptual clarity and methodological connections. We organize the literature around three unifying paradigms: (i) PDE residual--based approaches, including physicsinformed neural networks and their high dimensional variants; (ii) stochastic methods derived from Feynman--Kac and backward stochastic differential equation formulations; and (iii) hybrid derivative--free random difference approaches designed to alleviate the computational cost of derivatives in high dimensions. For each paradigm, we outline the underlying mathematical formulation, algorithmic implementation, and practical strengths and limitations. Representative benchmark problems--including Hamilton--Jacobi--Bellman and Black--Scholes equations in up to 1000 dimensions --illustrate the scalability, effectiveness, and accuracy of the methods. The paper concludes with a discussion of open challenges and future directions for reliable and scalable solvers of high dimensional PDEs.
- Abstract(参考訳): 高次元偏微分方程式(PDE)の数値解は、次元の呪い(CoD)によって厳しく制約されており、古典的なグリッドベースの手法を数次元を超えて非現実的に適用している。近年では、深層ニューラルネットワークが有望なメッシュフリーな代替手段として出現し、数次元から数千次元のPDEソリューションの近似を可能にしている。この記事では、高次元のパラボリックPDEを解くためのチュートリアル指向の手法を紹介し、概念的明瞭さと方法論的接続を強調する。
我々は3つの統一パラダイムに関する文献を整理する。
i)物理インフォームドニューラルネットワークとその高次元変種を含むPDE残基アプローチ
(II)Feynman-Kacおよび後方確率微分方程式の定式化から導かれる確率的方法、及び
3)高次元の微分の計算コストを軽減するために設計されたハイブリッド微分自由ランダム差分法について,各パラダイムについて,基礎となる数学的定式化,アルゴリズムの実装,実用的強みと限界について概説する。
本稿は,高次元PDEの信頼性と拡張性を実現するためのオープン課題と今後の方向性について論じる。
関連論文リスト
- High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Multilevel CNNs for Parametric PDEs [0.0]
偏微分方程式に対する多段階解法の概念とニューラルネットワークに基づくディープラーニングを組み合わせる。
より詳細な理論的解析により,提案アーキテクチャは乗算Vサイクルを任意の精度で近似できることを示した。
最先端のディープラーニングベースの解法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-01T21:11:05Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Learning differentiable solvers for systems with hard constraints [48.54197776363251]
ニューラルネットワーク(NN)によって定義される関数に対する偏微分方程式(PDE)制約を強制する実践的手法を提案する。
我々は、任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
その結果、NNアーキテクチャに直接ハード制約を組み込むことで、制約のない目的のトレーニングに比べてテストエラーがはるかに少ないことがわかった。
論文 参考訳(メタデータ) (2022-07-18T15:11:43Z) - Finite Expression Method for Solving High-Dimensional Partial Differential Equations [9.238700679836857]
本稿では,有限個の解析式を持つ関数空間における近似PDE解を求める新しい手法を提案する。
FEXは次元の呪いを避けることができるという近似理論で証明されている。
有限解析式を持つ近似解はまた、基底真理 PDE 解に対する解釈可能な洞察を与える。
論文 参考訳(メタデータ) (2022-06-21T05:51:10Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。