論文の概要: FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries
- arxiv url: http://arxiv.org/abs/2404.12063v1
- Date: Thu, 18 Apr 2024 10:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:21:31.458696
- Title: FastVPINNs: Tensor-Driven Acceleration of VPINNs for Complex Geometries
- Title(参考訳): FastVPINNs: 複雑なジオメトリのためのTensor-Driven Acceleration of VPINNs
- Authors: Thivin Anandh, Divij Ghose, Himanshu Jain, Sashikumaar Ganesan,
- Abstract要約: 変分物理学情報ニューラルネットワーク(VPINN)は偏微分方程式の解法として変分損失関数を用いる。
FastVPINNは、従来のhp-VPINNと比較して、エポックあたりの平均トレーニング時間を100倍に短縮する。
- 参考スコア(独自算出の注目度): 4.5594104437122684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Variational Physics-Informed Neural Networks (VPINNs) utilize a variational loss function to solve partial differential equations, mirroring Finite Element Analysis techniques. Traditional hp-VPINNs, while effective for high-frequency problems, are computationally intensive and scale poorly with increasing element counts, limiting their use in complex geometries. This work introduces FastVPINNs, a tensor-based advancement that significantly reduces computational overhead and improves scalability. Using optimized tensor operations, FastVPINNs achieve a 100-fold reduction in the median training time per epoch compared to traditional hp-VPINNs. With proper choice of hyperparameters, FastVPINNs surpass conventional PINNs in both speed and accuracy, especially in problems with high-frequency solutions. Demonstrated effectiveness in solving inverse problems on complex domains underscores FastVPINNs' potential for widespread application in scientific and engineering challenges, opening new avenues for practical implementations in scientific machine learning.
- Abstract(参考訳): 変分物理学インフォームドニューラルネットワーク(VPINN)は、偏微分方程式を解くために変分損失関数を用いて、有限要素解析を模倣する。
従来のhp-VPINNは高周波問題に有効であるが、計算集約的であり、要素数の増加とともにスケールが悪く、複雑な測地での使用を制限する。
この研究は、テンソルベースの進歩であるFastVPINNを導入し、計算オーバーヘッドを大幅に削減し、スケーラビリティを向上させる。
最適化されたテンソル演算を用いて、FastVPINNは従来のhp-VPINNと比較して、エポック毎の平均トレーニング時間を100倍に短縮する。
ハイパーパラメータの適切な選択により、特に高周波ソリューションの問題において、FastVPINNは、スピードと精度の両方で従来のPINNを上回っている。
複雑なドメイン上の逆問題解決における効率性の実証は、FastVPINNsの科学的および工学的課題への広範な応用の可能性を強調し、科学機械学習の実践的な実装のための新たな道を開く。
関連論文リスト
- Stiff Transfer Learning for Physics-Informed Neural Networks [1.5361702135159845]
本研究では, 物理インフォームドニューラルネットワーク(STL-PINN)の高次常微分方程式 (ODE) と偏微分方程式 (PDE) に挑戦する新しい手法を提案する。
提案手法は, マルチヘッドPINNを低剛性体制で訓練し, トランスファーラーニングにより高剛性体制で最終解を得る。
これにより、PINNの剛性に関連する障害モードに対処し、「ワンショット」ソリューションを計算することで計算効率を維持できる。
論文 参考訳(メタデータ) (2025-01-28T20:27:38Z) - The Finite Element Neural Network Method: One Dimensional Study [0.0]
本研究は,ペトロフ・ガレルキン法(ペトロフ・ガレルキン法)の枠組みにおける有限要素ニューラルネットワーク法(FENNM)を紹介する。
FENNMは、微分方程式の重み付け残差を近似するために畳み込み演算を用いる。
これにより、従来の有限要素法(FEM)の解法と同様に、強制項と自然境界条件を損失関数に統合することができる。
論文 参考訳(メタデータ) (2025-01-21T21:39:56Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - An efficient hp-Variational PINNs framework for incompressible Navier-Stokes equations [0.0]
物理インフォームドニューラルネットワーク(PINN)は、PDEの残余を損失関数に組み込むことで、偏微分方程式(PDE)を解くことができる。
hp-VPINNは従来のPINNよりも有望だが、複雑なジオメトリを扱えるフレームワークがない。
FastVPINNは、テンソルベースの損失計算を導入し、トレーニング効率を大幅に改善することで、これらの課題に対処するために導入された。
論文 参考訳(メタデータ) (2024-09-06T09:17:41Z) - Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Reduced-PINN: An Integration-Based Physics-Informed Neural Networks for
Stiff ODEs [0.0]
物理インフォームドニューラルネットワーク(PINN)は、最近、前方および逆問題の両方を解決する能力により、多くの注目を集めている。
そこで我々は, PINN の高次積分法を用いて, 硬質化学動力学を解ける新しい PINN アーキテクチャ, Reduced-PINN を提案する。
論文 参考訳(メタデータ) (2022-08-23T09:20:42Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。