論文の概要: FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries
- arxiv url: http://arxiv.org/abs/2404.12063v1
- Date: Thu, 18 Apr 2024 10:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:21:31.458696
- Title: FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries
- Title(参考訳): FastVPINNs: 複雑なジオメトリのためのTensor-Driven Acceleration of VPINNs
- Authors: Thivin Anandh, Divij Ghose, Himanshu Jain, Sashikumaar Ganesan,
- Abstract要約: 変分物理学情報ニューラルネットワーク(VPINN)は偏微分方程式の解法として変分損失関数を用いる。
FastVPINNは、従来のhp-VPINNと比較して、エポックあたりの平均トレーニング時間を100倍に短縮する。
- 参考スコア(独自算出の注目度): 4.5594104437122684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Variational Physics-Informed Neural Networks (VPINNs) utilize a variational loss function to solve partial differential equations, mirroring Finite Element Analysis techniques. Traditional hp-VPINNs, while effective for high-frequency problems, are computationally intensive and scale poorly with increasing element counts, limiting their use in complex geometries. This work introduces FastVPINNs, a tensor-based advancement that significantly reduces computational overhead and improves scalability. Using optimized tensor operations, FastVPINNs achieve a 100-fold reduction in the median training time per epoch compared to traditional hp-VPINNs. With proper choice of hyperparameters, FastVPINNs surpass conventional PINNs in both speed and accuracy, especially in problems with high-frequency solutions. Demonstrated effectiveness in solving inverse problems on complex domains underscores FastVPINNs' potential for widespread application in scientific and engineering challenges, opening new avenues for practical implementations in scientific machine learning.
- Abstract(参考訳): 変分物理学インフォームドニューラルネットワーク(VPINN)は、偏微分方程式を解くために変分損失関数を用いて、有限要素解析を模倣する。
従来のhp-VPINNは高周波問題に有効であるが、計算集約的であり、要素数の増加とともにスケールが悪く、複雑な測地での使用を制限する。
この研究は、テンソルベースの進歩であるFastVPINNを導入し、計算オーバーヘッドを大幅に削減し、スケーラビリティを向上させる。
最適化されたテンソル演算を用いて、FastVPINNは従来のhp-VPINNと比較して、エポック毎の平均トレーニング時間を100倍に短縮する。
ハイパーパラメータの適切な選択により、特に高周波ソリューションの問題において、FastVPINNは、スピードと精度の両方で従来のPINNを上回っている。
複雑なドメイン上の逆問題解決における効率性の実証は、FastVPINNsの科学的および工学的課題への広範な応用の可能性を強調し、科学機械学習の実践的な実装のための新たな道を開く。
関連論文リスト
- An efficient hp-Variational PINNs framework for incompressible Navier-Stokes equations [0.0]
物理インフォームドニューラルネットワーク(PINN)は、PDEの残余を損失関数に組み込むことで、偏微分方程式(PDE)を解くことができる。
hp-VPINNは従来のPINNよりも有望だが、複雑なジオメトリを扱えるフレームワークがない。
FastVPINNは、テンソルベースの損失計算を導入し、トレーニング効率を大幅に改善することで、これらの課題に対処するために導入された。
論文 参考訳(メタデータ) (2024-09-06T09:17:41Z) - Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Reduced-PINN: An Integration-Based Physics-Informed Neural Networks for
Stiff ODEs [0.0]
物理インフォームドニューラルネットワーク(PINN)は、最近、前方および逆問題の両方を解決する能力により、多くの注目を集めている。
そこで我々は, PINN の高次積分法を用いて, 硬質化学動力学を解ける新しい PINN アーキテクチャ, Reduced-PINN を提案する。
論文 参考訳(メタデータ) (2022-08-23T09:20:42Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。