論文の概要: Solving Partial Differential Equations in Different Domains by Operator Learning method Based on Boundary Integral Equations
- arxiv url: http://arxiv.org/abs/2406.02298v1
- Date: Tue, 4 Jun 2024 13:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 16:10:55.381620
- Title: Solving Partial Differential Equations in Different Domains by Operator Learning method Based on Boundary Integral Equations
- Title(参考訳): 境界積分方程式に基づく演算子学習法による異なる領域における部分微分方程式の解法
- Authors: Bin Meng, Yutong Lu, Ying Jiang,
- Abstract要約: 本稿では、任意の領域における偏微分方程式(PDE)の解を、再学習を必要とせずに導出できる演算子学習モデルについて検討する。
境界積分方程式(BIE)に根ざした2つの革新的なモデルを導入する。
一度完全にトレーニングされると、これらのBIEベースのモデルは、追加のトレーニングを必要とせずに、任意のドメインにおけるPDEのソリューションを積極的に予測する。
- 参考スコア(独自算出の注目度): 13.495279709392104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article explores operator learning models that can deduce solutions to partial differential equations (PDEs) on arbitrary domains without requiring retraining. We introduce two innovative models rooted in boundary integral equations (BIEs): the Boundary Integral Type Deep Operator Network (BI-DeepONet) and the Boundary Integral Trigonometric Deep Operator Neural Network (BI-TDONet), which are crafted to address PDEs across diverse domains. Once fully trained, these BIE-based models adeptly predict the solutions of PDEs in any domain without the need for additional training. BI-TDONet notably enhances its performance by employing the singular value decomposition (SVD) of bounded linear operators, allowing for the efficient distribution of input functions across its modules. Furthermore, to tackle the issue of function sampling values that do not effectively capture oscillatory and impulse signal characteristics, trigonometric coefficients are utilized as both inputs and outputs in BI-TDONet. Our numerical experiments robustly support and confirm the efficacy of this theoretical framework.
- Abstract(参考訳): 本稿では、任意の領域における偏微分方程式(PDE)の解を、再学習を必要とせずに導出できる演算子学習モデルについて検討する。
境界積分方程式(BIE)に根ざした2つの革新的なモデルとして,境界積分型深部演算ネットワーク(BI-DeepONet)と境界積分型三角度深部演算ニューラルネットワーク(BI-TDONet)を導入する。
一度完全にトレーニングされると、これらのBIEベースのモデルは、追加のトレーニングを必要とせずに、任意のドメインにおけるPDEのソリューションを積極的に予測する。
BI-TDONetは、有界線型作用素の特異値分解(SVD)を用いることで、モジュール間の入力関数の効率的な分散を可能にすることで、その性能を著しく向上させる。
さらに、発振特性とインパルス信号特性を効果的に捉えない関数サンプリング値の問題に対処するため、BI-TDONetの入力と出力の両方に三角係数を用いる。
我々の数値実験は、この理論フレームワークの有効性を強く支持し、確認する。
関連論文リスト
- DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - A Hybrid Kernel-Free Boundary Integral Method with Operator Learning for Solving Parametric Partial Differential Equations In Complex Domains [0.0]
カーネル自由境界積分法(KFBI)は楕円偏微分方程式(PDE)から生じる境界積分方程式に対する反復解を示す
本稿では,KFBI法の基本原理と深層学習能力を統合するハイブリッドKFBI法を提案する。
論文 参考訳(メタデータ) (2024-04-23T17:25:35Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Learning Only On Boundaries: a Physics-Informed Neural operator for
Solving Parametric Partial Differential Equations in Complex Geometries [10.250994619846416]
ラベル付きデータなしでパラメータ化境界値問題を解決する物理インフォームド・ニューラル演算子法を提案する。
数値実験により,パラメータ化複素測地と非有界問題の有効性が示された。
論文 参考訳(メタデータ) (2023-08-24T17:29:57Z) - Koopman neural operator as a mesh-free solver of non-linear partial differential equations [15.410070455154138]
これらの課題を克服するために,新しいニューラル演算子であるクープマンニューラル演算子(KNO)を提案する。
力学系のすべての可能な観測を統括する無限次元作用素であるクープマン作用素を近似することにより、非線型PDEファミリーの解を等価に学べる。
KNOは、従来の最先端モデルと比較して顕著なアドバンテージを示している。
論文 参考訳(メタデータ) (2023-01-24T14:10:15Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - One-shot learning for solution operators of partial differential equations [3.559034814756831]
データから偏微分方程式(PDE)で表される物理系の方程式を学習し、解くことは、科学と工学の様々な分野において中心的な課題である。
従来のPDEの数値解法は複雑なシステムでは計算コストがかかり、物理系の完全なPDEが必要となる。
本稿では,1つのPDEソリューション,すなわちワンショット学習のみを必要とする,最初のソリューション演算子学習法を提案する。
論文 参考訳(メタデータ) (2021-04-06T17:35:10Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。