論文の概要: Physics-informed Discretization-independent Deep Compositional Operator Network
- arxiv url: http://arxiv.org/abs/2404.13646v2
- Date: Mon, 29 Jul 2024 18:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 21:55:07.791663
- Title: Physics-informed Discretization-independent Deep Compositional Operator Network
- Title(参考訳): 物理インフォームド離散化独立Deep compositional Operator Network
- Authors: Weiheng Zhong, Hadi Meidani,
- Abstract要約: 我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
- 参考スコア(独自算出の注目度): 1.2430809884830318
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Solving parametric Partial Differential Equations (PDEs) for a broad range of parameters is a critical challenge in scientific computing. To this end, neural operators, which \textcolor{black}{predicts the PDE solution with variable PDE parameter inputs}, have been successfully used. However, the training of neural operators typically demands large training datasets, the acquisition of which can be prohibitively expensive. To address this challenge, physics-informed training can offer a cost-effective strategy. However, current physics-informed neural operators face limitations, either in handling irregular domain shapes or in in generalizing to various discrete representations of PDE parameters. In this research, we introduce a novel physics-informed model architecture which can generalize to various discrete representations of PDE parameters and irregular domain shapes. Particularly, inspired by deep operator neural networks, our model involves a discretization-independent learning of parameter embedding repeatedly, and this parameter embedding is integrated with the response embeddings through multiple compositional layers, for more expressivity. Numerical results demonstrate the accuracy and efficiency of the proposed method.
- Abstract(参考訳): 幅広いパラメータに対してパラメトリック部分微分方程式(PDE)を解くことは、科学計算において重要な課題である。
この目的のために、可変PDEパラメータ入力でPDE解を予測する演算子(textcolor{black}{predicts PDE solution)が成功した。
しかし、ニューラル演算子のトレーニングは通常、大規模なトレーニングデータセットを必要とする。
この課題に対処するために、物理インフォームドトレーニングはコスト効率の良い戦略を提供することができる。
しかし、現在の物理学インフォームドニューラルネットワークは、不規則な領域形状を扱う場合や、PDEパラメータの様々な離散表現に一般化する場合に制限に直面している。
本研究では,PDEパラメータと不規則領域形状の様々な離散表現を一般化する物理インフォームドモデルアーキテクチャを提案する。
特に、ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みを離散化独立に学習することを含み、このパラメータ埋め込みは、より表現力を高めるために、複数の合成層を通して応答埋め込みと統合される。
提案手法の精度と効率を数値計算により検証した。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Parameterized Physics-informed Neural Networks for Parameterized PDEs [24.926311700375948]
本稿では,パラメータ化物理インフォームドニューラルネットワーク(PINN)の新たな拡張を提案する。
PINNはパラメータ化偏微分方程式(PDE)の解をPDEパラメータの潜在表現を明示的に符号化することでモデル化することができる。
P$2$INNs はベンチマーク 1D と 2D のパラメータ化 PDE において精度とパラメータ効率の両方でベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-18T11:58:22Z) - Physics-Informed Geometry-Aware Neural Operator [1.2430809884830318]
工学設計の問題は、可変PDEパラメータとドメイン幾何学の下でパラメトリック部分微分方程式(PDE)を解くことである。
近年、ニューラル演算子はPDE演算子を学習し、PDE解を素早く予測する。
我々はPDEパラメータとドメインジオメトリの両方を同時に一般化する新しい手法であるPhysical-Informed Geometry-Aware Neural Operator (PI-GANO)を導入する。
論文 参考訳(メタデータ) (2024-08-02T23:11:42Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Reduced-order modeling for parameterized PDEs via implicit neural
representations [4.135710717238787]
我々は、パラメータ化偏微分方程式(PDE)を効率的に解くために、新しいデータ駆動型低次モデリング手法を提案する。
提案フレームワークは、PDEを符号化し、パラメトリゼーションニューラルネットワーク(PNODE)を用いて、複数のPDEパラメータを特徴とする潜時ダイナミクスを学習する。
我々は,提案手法を大規模なレイノルズ数で評価し,O(103)の高速化と,基底真理値に対する1%の誤差を得る。
論文 参考訳(メタデータ) (2023-11-28T01:35:06Z) - Hypernetwork-based Meta-Learning for Low-Rank Physics-Informed Neural
Networks [24.14254861023394]
本研究では,物理インフォームドニューラルネットワーク (PINN) がそのような解法の一つとして考えられる可能性を秘めた経路を提案する。
PINNは、ディープラーニングと科学計算の適切な統合を開拓してきたが、ニューラルネットワークの反復的な時間的トレーニングを必要としている。
本稿では,数百のモデルパラメータと関連するハイパーネットワークに基づくメタ学習アルゴリズムを含む軽量な低ランクPINNを提案する。
論文 参考訳(メタデータ) (2023-10-14T08:13:43Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - KoopmanLab: machine learning for solving complex physics equations [7.815723299913228]
解析解や閉形式を使わずにPDEを学習するための、クープマンニューラルオペレータファミリーの効率的なモジュールであるクープマンLabを提案する。
我々のモジュールは、メッシュに依存しないニューラルネットワークベースのPDEソルバの一種であるクープマンニューラル演算子(KNO)の複数の変種から構成されている。
KNO のコンパクトな変種はモデルサイズが小さい PDE を正確に解くことができるが、KNO の大きな変種は高度に複雑な力学系を予測する上でより競争力がある。
論文 参考訳(メタデータ) (2023-01-03T13:58:39Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。