論文の概要: Operator Learning with Domain Decomposition for Geometry Generalization in PDE Solving
- arxiv url: http://arxiv.org/abs/2504.00510v1
- Date: Tue, 01 Apr 2025 08:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:24:08.416338
- Title: Operator Learning with Domain Decomposition for Geometry Generalization in PDE Solving
- Title(参考訳): PDE解法における幾何一般化のための領域分解による演算子学習
- Authors: Jianing Huang, Kaixuan Zhang, Youjia Wu, Ze Cheng,
- Abstract要約: 任意のジオメトリ上でPDEを解くための局所言語フレームワークであるドメイン分解を用いた演算子学習を提案する。
この枠組みの下で、反復的スキーム textitSchwarz Inference (SNI) を考案する。
このスキームは問題領域をより小さなジオメトリーに分割することができ、そこでは局所的な問題をニューラル演算子で解くことができる。
種々の境界条件を持ついくつかの代表的PDEに対して広範な実験を行い、目覚ましい幾何学的一般化を実現する。
- 参考スコア(独自算出の注目度): 3.011852751337123
- License:
- Abstract: Neural operators have become increasingly popular in solving \textit{partial differential equations} (PDEs) due to their superior capability to capture intricate mappings between function spaces over complex domains. However, the data-hungry nature of operator learning inevitably poses a bottleneck for their widespread applications. At the core of the challenge lies the absence of transferability of neural operators to new geometries. To tackle this issue, we propose operator learning with domain decomposition, a local-to-global framework to solve PDEs on arbitrary geometries. Under this framework, we devise an iterative scheme \textit{Schwarz Neural Inference} (SNI). This scheme allows for partitioning of the problem domain into smaller subdomains, on which local problems can be solved with neural operators, and stitching local solutions to construct a global solution. Additionally, we provide a theoretical analysis of the convergence rate and error bound. We conduct extensive experiments on several representative PDEs with diverse boundary conditions and achieve remarkable geometry generalization compared to alternative methods. These analysis and experiments demonstrate the proposed framework's potential in addressing challenges related to geometry generalization and data efficiency.
- Abstract(参考訳): ニューラル作用素は、複素領域上の関数空間間の複雑な写像をキャプチャする優れた能力のために、 textit{partial differential equations} (PDE) を解くことで、ますます人気が高まっている。
しかし、演算子学習におけるデータ不足の性質は、その広範な応用に必然的にボトルネックを生じさせる。
この課題の核心は、ニューラル演算子の新しい測地への移動性がないことである。
この問題に対処するために,任意のジオメトリ上でPDEを解くための局所言語フレームワークであるドメイン分解を用いた演算子学習を提案する。
この枠組みでは、反復的スキーム \textit{Schwarz Neural Inference} (SNI) を考案する。
このスキームにより、問題領域を小さなサブドメインに分割し、ニューラルネットワークで局所的な問題を解くことができ、局所的な解を縫い合わせて大域的な解を構築することができる。
さらに,収束率と誤差境界の理論的解析を行う。
種々の境界条件を持ついくつかの代表的PDEに対して広範な実験を行い、代替手法と比較して目覚ましい幾何学的一般化を実現する。
これらの分析と実験は、幾何学の一般化とデータ効率に関する課題に対処する上で、提案するフレームワークの可能性を示すものである。
関連論文リスト
- Physics-Informed Deep Inverse Operator Networks for Solving PDE Inverse Problems [1.9490282165104331]
偏微分方程式(PDE)に関する逆問題(英語版)は、測定データから未知の量への写像を発見するものであると見なすことができる。
既存の手法は一般に大量のラベル付きトレーニングデータに依存しており、ほとんどの現実世界のアプリケーションでは実用的ではない。
我々は,PDEに基づく逆問題に対して,ラベル付きトレーニングデータなしで解演算子を学習できる,Physical-Informed Deep Inverse Operator Networks (PI-DIONs) という新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-04T09:38:58Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Operator Learning with Neural Fields: Tackling PDEs on General
Geometries [15.65577053925333]
偏微分方程式を解くための機械学習アプローチは、関数空間間の学習写像を必要とする。
新しいコーラル法は、いくつかの一般的な制約に基づいてPDEのための座標ベースのネットワークを利用する。
論文 参考訳(メタデータ) (2023-06-12T17:52:39Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Neural PDE Solvers for Irregular Domains [25.673617202478606]
不規則な形状の幾何学的境界を持つ領域上の偏微分方程式をニューラルネットワークで解く枠組みを提案する。
我々のネットワークは入力としてドメインの形をとり、新しい(目に見えない)不規則なドメインに一般化することができる。
論文 参考訳(メタデータ) (2022-11-07T00:00:30Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - One-shot learning for solution operators of partial differential equations [3.559034814756831]
データから偏微分方程式(PDE)で表される物理系の方程式を学習し、解くことは、科学と工学の様々な分野において中心的な課題である。
従来のPDEの数値解法は複雑なシステムでは計算コストがかかり、物理系の完全なPDEが必要となる。
本稿では,1つのPDEソリューション,すなわちワンショット学習のみを必要とする,最初のソリューション演算子学習法を提案する。
論文 参考訳(メタデータ) (2021-04-06T17:35:10Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。