論文の概要: Geometry Aware Operator Transformer as an Efficient and Accurate Neural Surrogate for PDEs on Arbitrary Domains
- arxiv url: http://arxiv.org/abs/2505.18781v2
- Date: Tue, 27 May 2025 07:19:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 12:08:55.081323
- Title: Geometry Aware Operator Transformer as an Efficient and Accurate Neural Surrogate for PDEs on Arbitrary Domains
- Title(参考訳): 任意領域上のPDEのための効率的かつ高精度なニューラルネットワークサロゲートとしての幾何学的演算子変換器
- Authors: Shizheng Wen, Arsh Kumbhat, Levi Lingsch, Sepehr Mousavi, Yizhou Zhao, Praveen Chandrashekar, Siddhartha Mishra,
- Abstract要約: 任意の領域上のPDEを学習するための幾何認識演算子変換器(GAOT)を提案する。
GAOTは、新しいマルチスケールの注目グラフニューラル演算子エンコーダとデコーダを、幾何学的な埋め込みと(ビジョン)トランスフォーマープロセッサと組み合わせている。
多様なPDEから多くの学習課題を学習する上で,GAOTの精度と効率の両面で有意な向上を示す。
- 参考スコア(独自算出の注目度): 19.45408236261864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The very challenging task of learning solution operators of PDEs on arbitrary domains accurately and efficiently is of vital importance to engineering and industrial simulations. Despite the existence of many operator learning algorithms to approximate such PDEs, we find that accurate models are not necessarily computationally efficient and vice versa. We address this issue by proposing a geometry aware operator transformer (GAOT) for learning PDEs on arbitrary domains. GAOT combines novel multiscale attentional graph neural operator encoders and decoders, together with geometry embeddings and (vision) transformer processors to accurately map information about the domain and the inputs into a robust approximation of the PDE solution. Multiple innovations in the implementation of GAOT also ensure computational efficiency and scalability. We demonstrate this significant gain in both accuracy and efficiency of GAOT over several baselines on a large number of learning tasks from a diverse set of PDEs, including achieving state of the art performance on a large scale three-dimensional industrial CFD dataset.
- Abstract(参考訳): 任意のドメイン上でPDEの解演算子を正確にかつ効率的に学習する非常に困難なタスクは、エンジニアリングや産業シミュレーションにおいて極めて重要である。
このようなPDEを近似する演算子学習アルゴリズムが多数存在するにもかかわらず、正確なモデルは必ずしも計算効率が良くない。
本稿では、任意のドメイン上のPDEを学習するための幾何認識演算子変換器(GAOT)を提案する。
GAOTは、新しいマルチスケール注目グラフニューラル演算子エンコーダとデコーダと、幾何学埋め込みと(ビジョン)トランスフォーマープロセッサを組み合わせて、ドメインと入力に関する情報をPDEソリューションの堅牢な近似に正確にマッピングする。
GAOTの実装における複数の革新は、計算効率とスケーラビリティも保証している。
大規模3次元産業CFDデータセットにおける最先端性能の達成を含む,多種多様なPDEからの学習タスクをベースラインとしたGAOTの精度と効率の両面で,この大きな向上を実証した。
関連論文リスト
- Transolver++: An Accurate Neural Solver for PDEs on Million-Scale Geometries [67.63077028746191]
Transolver++は、百万のスケールでPDEを解くことができる、非常に並列で効率的なニューラルソルバである。
Transolver++は、シングルGPU入力能力を初めて100万ポイントに拡張する。
数百万スケールの高忠実度産業シミュレーションで20%以上の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-04T15:33:50Z) - Physics-Informed Geometry-Aware Neural Operator [1.2430809884830318]
工学設計の問題は、可変PDEパラメータとドメイン幾何学の下でパラメトリック部分微分方程式(PDE)を解くことである。
近年、ニューラル演算子はPDE演算子を学習し、PDE解を素早く予測する。
我々はPDEパラメータとドメインジオメトリの両方を同時に一般化する新しい手法であるPhysical-Informed Geometry-Aware Neural Operator (PI-GANO)を導入する。
論文 参考訳(メタデータ) (2024-08-02T23:11:42Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。