論文の概要: Tackling the Curse of Dimensionality with Physics-Informed Neural
Networks
- arxiv url: http://arxiv.org/abs/2307.12306v1
- Date: Sun, 23 Jul 2023 12:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 16:51:19.884700
- Title: Tackling the Curse of Dimensionality with Physics-Informed Neural
Networks
- Title(参考訳): 物理インフォームドニューラルネットワークによる次元の呪いへの取り組み
- Authors: Zheyuan Hu, Khemraj Shukla, George Em Karniadakis, Kenji Kawaguchi
- Abstract要約: 我々は、任意の高次元PDEを解決するために、物理-ニューラルネットワーク(PINN)をスケールアップする新しい方法を開発した。
提案手法は,多くの悪名高い高次元PDEを解けることを実験的に実証した。
- 参考スコア(独自算出の注目度): 16.566059582556377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The curse-of-dimensionality (CoD) taxes computational resources heavily with
exponentially increasing computational cost as the dimension increases. This
poses great challenges in solving high-dimensional PDEs as Richard Bellman
first pointed out over 60 years ago. While there has been some recent success
in solving numerically partial differential equations (PDEs) in high
dimensions, such computations are prohibitively expensive, and true scaling of
general nonlinear PDEs to high dimensions has never been achieved. In this
paper, we develop a new method of scaling up physics-informed neural networks
(PINNs) to solve arbitrary high-dimensional PDEs. The new method, called
Stochastic Dimension Gradient Descent (SDGD), decomposes a gradient of PDEs
into pieces corresponding to different dimensions and samples randomly a subset
of these dimensional pieces in each iteration of training PINNs. We
theoretically prove the convergence guarantee and other desired properties of
the proposed method. We experimentally demonstrate that the proposed method
allows us to solve many notoriously hard high-dimensional PDEs, including the
Hamilton-Jacobi-Bellman and the Schr\"{o}dinger equations in thousands of
dimensions very fast on a single GPU using the PINNs mesh-free approach. For
example, we solve nontrivial nonlinear PDEs (the HJB-Lin equation and the BSB
equation) in 100,000 dimensions in 6 hours on a single GPU using SDGD with
PINNs. Since SDGD is a general training methodology of PINNs, SDGD can be
applied to any current and future variants of PINNs to scale them up for
arbitrary high-dimensional PDEs.
- Abstract(参考訳): 次元の呪い (CoD) は計算資源に重きを置き、次元が大きくなるにつれて計算コストが指数関数的に増加する。
これは60年以上前にRichard Bellman氏が最初に指摘したように、高次元PDEを解決する上で大きな課題となる。
近年、数値偏微分方程式(PDE)を高次元で解くことに成功したが、そのような計算は違法に高価であり、一般的な非線形PDEの高次元への真のスケーリングは達成されていない。
本稿では,任意の高次元PDEを解くために,物理インフォームドニューラルネットワーク(PINN)をスケールアップする新しい手法を提案する。
新しい手法はStochastic Dimension Gradient Descent (SDGD)と呼ばれ、PDEの勾配を異なる次元に対応するピースに分解し、トレーニングPINNの各イテレーションでこれらの次元のサブセットをランダムにサンプリングする。
提案手法の収束保証とその他の望ましい性質を理論的に証明する。
提案手法は,Hamilton-Jacobi-Bellman や Schr\"{o}dinger 方程式など,非常に難しい高次元 PDE を,PINN のメッシュフリーアプローチを用いて,単一のGPU上で非常に高速に解けることを示す。
例えば、非自明な非線形PDE(HJB-Lin方程式とBSB方程式)を、PINNを用いたSDGDを用いて1つのGPU上で6時間で10,000次元で解く。
SDGD は PINN の一般的な訓練手法であるため、SDGD は任意の高次元 PDE に対してスケールアップするために、現在および将来の PINN のどの変種にも適用することができる。
関連論文リスト
- Deep neural networks with ReLU, leaky ReLU, and softplus activation provably overcome the curse of dimensionality for space-time solutions of semilinear partial differential equations [3.3123773366516645]
これは高次元非線形偏微分方程式(PDE)を解くための応用数学の難題である。
深層ニューラルネットワーク(DNN)を用いてPDEの解を近似する深層学習(DL)に基づくPDEの手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T09:59:29Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Separable Physics-Informed Neural Networks [6.439575695132489]
PINNのためのネットワークアーキテクチャとトレーニングアルゴリズムを提案する。
SPINNは、多次元PDEにおけるネットワーク伝播数を著しく削減するために、軸単位で動作している。
そこで, SPINN は, 2+1-d Navier-Stokes 方程式を, より高速に解けることを示す。
論文 参考訳(メタデータ) (2023-06-28T07:11:39Z) - Multilevel CNNs for Parametric PDEs [0.0]
偏微分方程式に対する多段階解法の概念とニューラルネットワークに基づくディープラーニングを組み合わせる。
より詳細な理論的解析により,提案アーキテクチャは乗算Vサイクルを任意の精度で近似できることを示した。
最先端のディープラーニングベースの解法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-01T21:11:05Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - MAgNet: Mesh Agnostic Neural PDE Solver [68.8204255655161]
気候予測は、流体シミュレーションにおける全ての乱流スケールを解決するために、微細な時間分解能を必要とする。
現在の数値モデル解法 PDEs on grids that too coarse (3km~200km on each side)
本研究では,空間的位置問合せが与えられたPDEの空間的連続解を予測する新しいアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-10-11T14:52:20Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Space-time deep neural network approximations for high-dimensional partial differential equations [3.6185342807265415]
深層学習近似は次元性の呪いを克服する能力を持っているかもしれない。
この記事では、任意の$ainmathbbR$, $ bin (a,infty)$に対して、あるコルモゴロフ PDE の解が次元性の呪いなしで DNN によって近似できることを証明する。
論文 参考訳(メタデータ) (2020-06-03T12:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。