論文の概要: Solving Partial Differential Equations in Different Domains by Operator Learning method Based on Boundary Integral Equations
- arxiv url: http://arxiv.org/abs/2406.02298v1
- Date: Tue, 4 Jun 2024 13:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 16:10:55.381620
- Title: Solving Partial Differential Equations in Different Domains by Operator Learning method Based on Boundary Integral Equations
- Title(参考訳): 境界積分方程式に基づく演算子学習法による異なる領域における部分微分方程式の解法
- Authors: Bin Meng, Yutong Lu, Ying Jiang,
- Abstract要約: 本稿では、任意の領域における偏微分方程式(PDE)の解を、再学習を必要とせずに導出できる演算子学習モデルについて検討する。
境界積分方程式(BIE)に根ざした2つの革新的なモデルを導入する。
一度完全にトレーニングされると、これらのBIEベースのモデルは、追加のトレーニングを必要とせずに、任意のドメインにおけるPDEのソリューションを積極的に予測する。
- 参考スコア(独自算出の注目度): 13.495279709392104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article explores operator learning models that can deduce solutions to partial differential equations (PDEs) on arbitrary domains without requiring retraining. We introduce two innovative models rooted in boundary integral equations (BIEs): the Boundary Integral Type Deep Operator Network (BI-DeepONet) and the Boundary Integral Trigonometric Deep Operator Neural Network (BI-TDONet), which are crafted to address PDEs across diverse domains. Once fully trained, these BIE-based models adeptly predict the solutions of PDEs in any domain without the need for additional training. BI-TDONet notably enhances its performance by employing the singular value decomposition (SVD) of bounded linear operators, allowing for the efficient distribution of input functions across its modules. Furthermore, to tackle the issue of function sampling values that do not effectively capture oscillatory and impulse signal characteristics, trigonometric coefficients are utilized as both inputs and outputs in BI-TDONet. Our numerical experiments robustly support and confirm the efficacy of this theoretical framework.
- Abstract(参考訳): 本稿では、任意の領域における偏微分方程式(PDE)の解を、再学習を必要とせずに導出できる演算子学習モデルについて検討する。
境界積分方程式(BIE)に根ざした2つの革新的なモデルとして,境界積分型深部演算ネットワーク(BI-DeepONet)と境界積分型三角度深部演算ニューラルネットワーク(BI-TDONet)を導入する。
一度完全にトレーニングされると、これらのBIEベースのモデルは、追加のトレーニングを必要とせずに、任意のドメインにおけるPDEのソリューションを積極的に予測する。
BI-TDONetは、有界線型作用素の特異値分解(SVD)を用いることで、モジュール間の入力関数の効率的な分散を可能にすることで、その性能を著しく向上させる。
さらに、発振特性とインパルス信号特性を効果的に捉えない関数サンプリング値の問題に対処するため、BI-TDONetの入力と出力の両方に三角係数を用いる。
我々の数値実験は、この理論フレームワークの有効性を強く支持し、確認する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Quantitative Approximation for Neural Operators in Nonlinear Parabolic Equations [0.40964539027092917]
非線形放物型偏微分方程式(PDE)に対する解作用素の近似速度を導出する。
この結果から,モデル複雑性の指数的増大を伴わずに,これらの解演算子を効率的に近似できることがわかった。
我々の証明における重要な洞察は、Duahamelの原理を介してPDEを対応する積分方程式に変換し、ニューラル作用素とPicardの反復との類似性を活用することである。
論文 参考訳(メタデータ) (2024-10-03T02:28:17Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - A Hybrid Kernel-Free Boundary Integral Method with Operator Learning for Solving Parametric Partial Differential Equations In Complex Domains [0.0]
カーネル自由境界積分法(KFBI)は楕円偏微分方程式(PDE)から生じる境界積分方程式に対する反復解を示す
本稿では,KFBI法の基本原理と深層学習能力を統合するハイブリッドKFBI法を提案する。
論文 参考訳(メタデータ) (2024-04-23T17:25:35Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - Learning Only On Boundaries: a Physics-Informed Neural operator for
Solving Parametric Partial Differential Equations in Complex Geometries [10.250994619846416]
ラベル付きデータなしでパラメータ化境界値問題を解決する物理インフォームド・ニューラル演算子法を提案する。
数値実験により,パラメータ化複素測地と非有界問題の有効性が示された。
論文 参考訳(メタデータ) (2023-08-24T17:29:57Z) - One-shot learning for solution operators of partial differential equations [3.559034814756831]
データから偏微分方程式(PDE)で表される物理系の方程式を学習し、解くことは、科学と工学の様々な分野において中心的な課題である。
従来のPDEの数値解法は複雑なシステムでは計算コストがかかり、物理系の完全なPDEが必要となる。
本稿では,1つのPDEソリューション,すなわちワンショット学習のみを必要とする,最初のソリューション演算子学習法を提案する。
論文 参考訳(メタデータ) (2021-04-06T17:35:10Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。