論文の概要: Tackling the Curse of Dimensionality with Physics-Informed Neural
Networks
- arxiv url: http://arxiv.org/abs/2307.12306v4
- Date: Sun, 12 Nov 2023 15:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 21:04:40.916919
- Title: Tackling the Curse of Dimensionality with Physics-Informed Neural
Networks
- Title(参考訳): 物理インフォームドニューラルネットワークによる次元の呪いへの取り組み
- Authors: Zheyuan Hu, Khemraj Shukla, George Em Karniadakis, Kenji Kawaguchi
- Abstract要約: 我々は、任意の高次元PDEを解決するために、物理インフォームドニューラルネットワーク(PINN)をスケールアップする新しい方法を開発した。
本研究では,提案手法が多くの高次元PDEを解くことができることを示す。
- 参考スコア(独自算出の注目度): 27.164040990410065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The curse-of-dimensionality taxes computational resources heavily with
exponentially increasing computational cost as the dimension increases. This
poses great challenges in solving high-dimensional PDEs, as Richard E. Bellman
first pointed out over 60 years ago. While there has been some recent success
in solving numerically partial differential equations (PDEs) in high
dimensions, such computations are prohibitively expensive, and true scaling of
general nonlinear PDEs to high dimensions has never been achieved. We develop a
new method of scaling up physics-informed neural networks (PINNs) to solve
arbitrary high-dimensional PDEs. The new method, called Stochastic Dimension
Gradient Descent (SDGD), decomposes a gradient of PDEs into pieces
corresponding to different dimensions and randomly samples a subset of these
dimensional pieces in each iteration of training PINNs. We prove theoretically
the convergence and other desired properties of the proposed method. We
demonstrate in various diverse tests that the proposed method can solve many
notoriously hard high-dimensional PDEs, including the Hamilton-Jacobi-Bellman
(HJB) and the Schr\"{o}dinger equations in tens of thousands of dimensions very
fast on a single GPU using the PINNs mesh-free approach. Notably, we solve
nonlinear PDEs with nontrivial, anisotropic, and inseparable solutions in
100,000 effective dimensions in 12 hours on a single GPU using SDGD with PINNs.
Since SDGD is a general training methodology of PINNs, it can be applied to any
current and future variants of PINNs to scale them up for arbitrary
high-dimensional PDEs.
- Abstract(参考訳): 次元の呪いは計算資源に重きを置き、次元が大きくなるにつれて計算コストが指数関数的に増加する。
これは60年以上前にRichard E. Bellman氏が指摘したように、高次元PDEを解決する上で大きな課題となる。
近年、数値偏微分方程式(PDE)を高次元で解くことに成功したが、そのような計算は違法に高価であり、一般的な非線形PDEの高次元への真のスケーリングは達成されていない。
我々は、任意の高次元PDEを解決するために、物理情報ニューラルネットワーク(PINN)をスケールアップする新しい方法を開発した。
新たな手法はStochastic Dimension Gradient Descent (SDGD)と呼ばれ、PDEの勾配を異なる次元に対応するピースに分解し、トレーニングPINNの各イテレーションでこれらの次元のサブセットをランダムにサンプリングする。
提案手法の収束とその他の望ましい性質を理論的に証明する。
提案手法は,数万次元のハミルトン・ヤコビ・ベルマン方程式やschr\"{o}dinger方程式など,多くの悪名高い高次元psdを,ピンスメッシュフリーアプローチを用いて単一のgpu上で高速に解くことができることを示す。
特に,非自明,異方性,分離不能な非線形PDEを1個のGPU上で12時間で10万の有効次元で解いた。
SDGD は PINN の一般的な訓練手法であるため、任意の高次元 PDE に対してスケールアップするために、現在および将来の PINN の変種に適用することができる。
関連論文リスト
- Deep neural networks with ReLU, leaky ReLU, and softplus activation provably overcome the curse of dimensionality for space-time solutions of semilinear partial differential equations [3.3123773366516645]
これは高次元非線形偏微分方程式(PDE)を解くための応用数学の難題である。
深層ニューラルネットワーク(DNN)を用いてPDEの解を近似する深層学習(DL)に基づくPDEの手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T09:59:29Z) - Unisolver: PDE-Conditional Transformers Are Universal PDE Solvers [55.0876373185983]
広範にPDEを解くことができるUniversal PDEソルバ(Unisolver)を提案する。
私たちの重要な発見は、PDEソリューションが基本的に一連のPDEコンポーネントの制御下にあることです。
Unisolverは3つの挑戦的な大規模ベンチマークにおいて、一貫した最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-05-27T15:34:35Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Separable Physics-Informed Neural Networks [6.439575695132489]
PINNのためのネットワークアーキテクチャとトレーニングアルゴリズムを提案する。
SPINNは、多次元PDEにおけるネットワーク伝播数を著しく削減するために、軸単位で動作している。
そこで, SPINN は, 2+1-d Navier-Stokes 方程式を, より高速に解けることを示す。
論文 参考訳(メタデータ) (2023-06-28T07:11:39Z) - Multilevel CNNs for Parametric PDEs [0.0]
偏微分方程式に対する多段階解法の概念とニューラルネットワークに基づくディープラーニングを組み合わせる。
より詳細な理論的解析により,提案アーキテクチャは乗算Vサイクルを任意の精度で近似できることを示した。
最先端のディープラーニングベースの解法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-01T21:11:05Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - MAgNet: Mesh Agnostic Neural PDE Solver [68.8204255655161]
気候予測は、流体シミュレーションにおける全ての乱流スケールを解決するために、微細な時間分解能を必要とする。
現在の数値モデル解法 PDEs on grids that too coarse (3km~200km on each side)
本研究では,空間的位置問合せが与えられたPDEの空間的連続解を予測する新しいアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-10-11T14:52:20Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Space-time deep neural network approximations for high-dimensional partial differential equations [3.6185342807265415]
深層学習近似は次元性の呪いを克服する能力を持っているかもしれない。
この記事では、任意の$ainmathbbR$, $ bin (a,infty)$に対して、あるコルモゴロフ PDE の解が次元性の呪いなしで DNN によって近似できることを証明する。
論文 参考訳(メタデータ) (2020-06-03T12:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。