論文の概要: Physics-informed Discretization-independent Deep Compositional Operator Network
- arxiv url: http://arxiv.org/abs/2404.13646v4
- Date: Wed, 13 Nov 2024 17:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:08:28.455625
- Title: Physics-informed Discretization-independent Deep Compositional Operator Network
- Title(参考訳): 物理インフォームド離散化独立Deep compositional Operator Network
- Authors: Weiheng Zhong, Hadi Meidani,
- Abstract要約: 我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
- 参考スコア(独自算出の注目度): 1.2430809884830318
- License:
- Abstract: Solving parametric Partial Differential Equations (PDEs) for a broad range of parameters is a critical challenge in scientific computing. To this end, neural operators, which \textcolor{black}{predicts the PDE solution with variable PDE parameter inputs}, have been successfully used. However, the training of neural operators typically demands large training datasets, the acquisition of which can be prohibitively expensive. To address this challenge, physics-informed training can offer a cost-effective strategy. However, current physics-informed neural operators face limitations, either in handling irregular domain shapes or in in generalizing to various discrete representations of PDE parameters. In this research, we introduce a novel physics-informed model architecture which can generalize to various discrete representations of PDE parameters and irregular domain shapes. Particularly, inspired by deep operator neural networks, our model involves a discretization-independent learning of parameter embedding repeatedly, and this parameter embedding is integrated with the response embeddings through multiple compositional layers, for more expressivity. Numerical results demonstrate the accuracy and efficiency of the proposed method. All the codes and data related to this work are available on GitHub: https://github.com/WeihengZ/PI-DCON.
- Abstract(参考訳): 幅広いパラメータに対してパラメトリック部分微分方程式(PDE)を解くことは、科学計算において重要な課題である。
この目的のために、可変PDEパラメータ入力でPDE解を予測する演算子(textcolor{black}{predicts PDE solution)が成功した。
しかし、ニューラル演算子のトレーニングは通常、大規模なトレーニングデータセットを必要とする。
この課題に対処するために、物理インフォームドトレーニングはコスト効率の良い戦略を提供することができる。
しかし、現在の物理学インフォームドニューラルネットワークは、不規則な領域形状を扱う場合や、PDEパラメータの様々な離散表現に一般化する場合に制限に直面している。
本研究では,PDEパラメータと不規則領域形状の様々な離散表現を一般化する物理インフォームドモデルアーキテクチャを提案する。
特に、ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みを離散化独立に学習することを含み、このパラメータ埋め込みは、より表現力を高めるために、複数の合成層を通して応答埋め込みと統合される。
提案手法の精度と効率を数値計算により検証した。
この作業に関連するすべてのコードとデータはGitHubで入手できる。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Parameterized Physics-informed Neural Networks for Parameterized PDEs [24.926311700375948]
本稿では,パラメータ化物理インフォームドニューラルネットワーク(PINN)の新たな拡張を提案する。
PINNはパラメータ化偏微分方程式(PDE)の解をPDEパラメータの潜在表現を明示的に符号化することでモデル化することができる。
P$2$INNs はベンチマーク 1D と 2D のパラメータ化 PDE において精度とパラメータ効率の両方でベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-18T11:58:22Z) - Physics-Informed Geometry-Aware Neural Operator [1.2430809884830318]
工学設計の問題は、可変PDEパラメータとドメイン幾何学の下でパラメトリック部分微分方程式(PDE)を解くことである。
最近のニューラル演算子は、PDE演算子を学習し、PDE解を素早く予測する。
我々はPDEパラメータとドメインジオメトリの両方を同時に一般化する新しい手法であるPhysical-Informed Geometry-Aware Neural Operator (PI-GANO)を導入する。
論文 参考訳(メタデータ) (2024-08-02T23:11:42Z) - Reduced-order modeling for parameterized PDEs via implicit neural
representations [4.135710717238787]
我々は、パラメータ化偏微分方程式(PDE)を効率的に解くために、新しいデータ駆動型低次モデリング手法を提案する。
提案フレームワークは、PDEを符号化し、パラメトリゼーションニューラルネットワーク(PNODE)を用いて、複数のPDEパラメータを特徴とする潜時ダイナミクスを学習する。
我々は,提案手法を大規模なレイノルズ数で評価し,O(103)の高速化と,基底真理値に対する1%の誤差を得る。
論文 参考訳(メタデータ) (2023-11-28T01:35:06Z) - Finite Element Operator Network for Solving Parametric PDEs [10.855582917943092]
偏微分方程式(PDE)は自然現象の理解と予測の基盤となる。
有限要素演算子ネットワーク(FEONet)を用いたパラメトリックPDEの解法を提案する。
論文 参考訳(メタデータ) (2023-08-09T03:56:07Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Multi-resolution partial differential equations preserved learning
framework for spatiotemporal dynamics [11.981731023317945]
物理インフォームドディープラーニング(PiDL)は、物理原理をモデルに組み込むことによって、これらの課題に対処する。
我々は、ニューラルネットワークアーキテクチャに離散化された支配方程式を焼いて、物理の事前知識を活用することを提案する。
離散化されたPDEを畳み込み残差ネットワークを介して多分解能設定に埋め込むことにより、一般化可能性と長期予測を大幅に改善する。
論文 参考訳(メタデータ) (2022-05-09T01:27:58Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。