論文の概要: Functional Tensor Decompositions for Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2408.13101v1
- Date: Fri, 23 Aug 2024 14:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 14:50:54.422415
- Title: Functional Tensor Decompositions for Physics-Informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークのための機能的テンソル分解
- Authors: Sai Karthikeya Vemuri, Tim Büchner, Julia Niebling, Joachim Denzler,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の近似において連続的かつ増加する公約を示した。
本稿では,古典変数分離法を一般化したPINNバージョンを提案する。
提案手法は,複雑な高次元PDEの性能向上により,PINNの性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 8.66932181641177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks (PINNs) have shown continuous and increasing promise in approximating partial differential equations (PDEs), although they remain constrained by the curse of dimensionality. In this paper, we propose a generalized PINN version of the classical variable separable method. To do this, we first show that, using the universal approximation theorem, a multivariate function can be approximated by the outer product of neural networks, whose inputs are separated variables. We leverage tensor decomposition forms to separate the variables in a PINN setting. By employing Canonic Polyadic (CP), Tensor-Train (TT), and Tucker decomposition forms within the PINN framework, we create robust architectures for learning multivariate functions from separate neural networks connected by outer products. Our methodology significantly enhances the performance of PINNs, as evidenced by improved results on complex high-dimensional PDEs, including the 3d Helmholtz and 5d Poisson equations, among others. This research underscores the potential of tensor decomposition-based variably separated PINNs to surpass the state-of-the-art, offering a compelling solution to the dimensionality challenge in PDE approximation.
- Abstract(参考訳): 物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の近似において連続的かつ増加する公約を示しているが、それらは次元の呪いによって制約されている。
本稿では,古典変数分離法を一般化したPINNバージョンを提案する。
これを行うために、まず、普遍近似定理を用いて、入力が分離変数であるニューラルネットワークの外積によって多変量関数を近似できることを示す。
我々は、テンソル分解形式を利用して、PINN設定における変数を分離する。
Canonic Polyadic(CP)、Tensor-Train(TT)、Tucker分解形式をPINNフレームワークに組み込むことで、外部製品によって接続された別個のニューラルネットワークから多変量関数を学習するための堅牢なアーキテクチャを構築する。
提案手法は, 3d ヘルムホルツ方程式や5d ポアソン方程式などを含む複雑な高次元 PDE において, PINN の性能を著しく向上させる。
この研究は、テンソル分解に基づく可変分離PINNが最先端技術を超える可能性を強調し、PDE近似における次元問題に対する説得力のある解決策を提供する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Learning Traveling Solitary Waves Using Separable Gaussian Neural
Networks [0.9065034043031668]
偏微分方程式(PDE)の様々なファミリをまたいだ走行する孤立波の学習に機械学習アプローチを適用する。
我々のアプローチは、新しい解釈可能なニューラルネットワーク(NN)アーキテクチャを物理情報ニューラルネットワーク(PINN)の枠組みに統合する。
論文 参考訳(メタデータ) (2024-03-07T20:16:18Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - MRF-PINN: A Multi-Receptive-Field convolutional physics-informed neural
network for solving partial differential equations [6.285167805465505]
物理インフォームドニューラルネットワーク(PINN)は、従来の偏微分方程式(PDE)の解法よりも開発コストと解決コストを低減できる。
パラメータ共有、空間的特徴抽出、低推論コストの利点により、畳み込みニューラルネットワーク(CNN)はPINNでますます利用されている。
論文 参考訳(メタデータ) (2022-09-06T12:26:22Z) - Physics-Aware Neural Networks for Boundary Layer Linear Problems [0.0]
物理インフォームドニューラルネットワーク(PINN)は、一般偏微分方程式(PDE)の解をニューラルネットワークの損失/コストの観点から何らかの形で加算することによって近似する。
本稿では,1つ以上の境界層が存在する線形PDEに対するPINNについて検討する。
論文 参考訳(メタデータ) (2022-07-15T21:15:06Z) - A mixed formulation for physics-informed neural networks as a potential
solver for engineering problems in heterogeneous domains: comparison with
finite element method [0.0]
物理インフォームドニューラルネットワーク(PINN)は、与えられた境界値問題の解を見つけることができる。
工学的問題における既存のPINNの性能を高めるために,有限要素法(FEM)からいくつかのアイデアを取り入れた。
論文 参考訳(メタデータ) (2022-06-27T08:18:08Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。