論文の概要: Latent Neural Operator for Solving Forward and Inverse PDE Problems
- arxiv url: http://arxiv.org/abs/2406.03923v3
- Date: Tue, 29 Oct 2024 14:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:36:10.120293
- Title: Latent Neural Operator for Solving Forward and Inverse PDE Problems
- Title(参考訳): 前向きおよび逆PDE問題の解法のための潜在ニューラル演算子
- Authors: Tian Wang, Chuang Wang,
- Abstract要約: 本稿では、潜時空間におけるPDEを解く潜時ニューラルネットワーク(LNO)を提案する。
実験によると、LNOはGPUメモリを50%削減し、トレーニングを1.8回スピードアップし、6つのベンチマークのうち4つで最先端の精度に達する。
- 参考スコア(独自算出の注目度): 5.8039987932401225
- License:
- Abstract: Neural operators effectively solve PDE problems from data without knowing the explicit equations, which learn the map from the input sequences of observed samples to the predicted values. Most existing works build the model in the original geometric space, leading to high computational costs when the number of sample points is large. We present the Latent Neural Operator (LNO) solving PDEs in the latent space. In particular, we first propose Physics-Cross-Attention (PhCA) transforming representation from the geometric space to the latent space, then learn the operator in the latent space, and finally recover the real-world geometric space via the inverse PhCA map. Our model retains flexibility that can decode values in any position not limited to locations defined in the training set, and therefore can naturally perform interpolation and extrapolation tasks particularly useful for inverse problems. Moreover, the proposed LNO improves both prediction accuracy and computational efficiency. Experiments show that LNO reduces the GPU memory by 50%, speeds up training 1.8 times, and reaches state-of-the-art accuracy on four out of six benchmarks for forward problems and a benchmark for inverse problem. Code is available at https://github.com/L-I-M-I-T/LatentNeuralOperator.
- Abstract(参考訳): ニューラルネットワークは、観測されたサンプルの入力シーケンスから予測値へのマップを学習する明示的な方程式を知らずに、データからPDE問題を効果的に解く。
既存のほとんどの研究は、元の幾何学空間でモデルを構築し、サンプル点の数が大きければ高い計算コストをもたらす。
本稿では、潜時空間におけるPDEを解く潜時ニューラルネットワーク(LNO)を提案する。
具体的には、まず幾何学空間から潜在空間へ表現を変換し、次に潜在空間の演算子を学習し、最後に逆PhCA写像を介して実世界の幾何学空間を復元する物理クロスアテンション(PhCA)を提案する。
我々のモデルは、トレーニングセットで定義された位置に限定されない任意の位置で値をデコードできる柔軟性を保持しており、それゆえ、特に逆問題に有用な補間および補間処理を自然に行うことができる。
さらに,提案したLNOは予測精度と計算効率を両立させる。
実験によると、LNOはGPUメモリを50%削減し、トレーニングを1.8回スピードアップし、6つの前処理のベンチマークのうち4つと逆処理のベンチマークで最先端の精度に達する。
コードはhttps://github.com/L-I-M-I-T/LatentNeuralOperatorで入手できる。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Deep neural operators can serve as accurate surrogates for shape
optimization: A case study for airfoils [3.2996060586026354]
本研究では, 形状最適化を目的とし, 未確認翼まわりの流れ場を推定するためにDeepONetsを用いることを検討した。
本稿では,オンライン最適化コストを桁違いに削減しつつ,予測精度の劣化が少ない結果を示す。
論文 参考訳(メタデータ) (2023-02-02T00:19:09Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Learning Functional Priors and Posteriors from Data and Physics [3.537267195871802]
我々は、歴史的データを用いて時空の露光を可能にするディープニューラルネットワークに基づく新しいフレームワークを開発した。
物理インフォームド・ジェネレーティブ・アダクティブ・アダクティブ・ネットワーク(PI-GAN)を用いて機能的事前学習を行う。
第2段階では, PI-GANの潜伏空間の後方を推定するために, ハミルトニアンモンテカルロ法(HMC)を用いる。
論文 参考訳(メタデータ) (2021-06-08T03:03:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。