論文の概要: FB-HyDON: Parameter-Efficient Physics-Informed Operator Learning of Complex PDEs via Hypernetwork and Finite Basis Domain Decomposition
- arxiv url: http://arxiv.org/abs/2409.09207v1
- Date: Fri, 13 Sep 2024 21:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:59:04.677366
- Title: FB-HyDON: Parameter-Efficient Physics-Informed Operator Learning of Complex PDEs via Hypernetwork and Finite Basis Domain Decomposition
- Title(参考訳): FB-HyDON:超ネットワークと有限基底領域分解による複素PDEのパラメータ効率向上型演算子学習
- Authors: Milad Ramezankhani, Rishi Yash Parekh, Anirudh Deodhar, Dagnachew Birru,
- Abstract要約: ディープ・オペレータ・ネットワーク(DeepONet)とニューラル・オペレーターは無限次元の関数空間をマッピングし、ゼロショット超解像を行う能力において大きな注目を集めている。
本稿では,Finite Basis Physics-Informed HyperDeepONet (FB-HyDON)を紹介した。
ハイパーネットワークと有限基底関数を利用することで、FB-HyDONは既存の物理インフォームド演算子学習法に関連するトレーニング制限を効果的に緩和する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep operator networks (DeepONet) and neural operators have gained significant attention for their ability to map infinite-dimensional function spaces and perform zero-shot super-resolution. However, these models often require large datasets for effective training. While physics-informed operators offer a data-agnostic learning approach, they introduce additional training complexities and convergence issues, especially in highly nonlinear systems. To overcome these challenges, we introduce Finite Basis Physics-Informed HyperDeepONet (FB-HyDON), an advanced operator architecture featuring intrinsic domain decomposition. By leveraging hypernetworks and finite basis functions, FB-HyDON effectively mitigates the training limitations associated with existing physics-informed operator learning methods. We validated our approach on the high-frequency harmonic oscillator, Burgers' equation at different viscosity levels, and Allen-Cahn equation demonstrating substantial improvements over other operator learning models.
- Abstract(参考訳): ディープ・オペレータ・ネットワーク(DeepONet)とニューラル・オペレーターは無限次元の関数空間をマッピングし、ゼロショット超解像を行う能力において大きな注目を集めている。
しかし、これらのモデルは、効果的なトレーニングのために大きなデータセットを必要とすることが多い。
物理インフォームド演算子は、データに依存しない学習アプローチを提供するが、特に高非線形システムにおいて、追加の訓練複雑性と収束問題を導入する。
これらの課題を克服するために、本研究では、固有領域分解を特徴とする高度な演算子アーキテクチャであるFinite Basis Physics-Informed HyperDeepONet(FB-HyDON)を紹介する。
ハイパーネットワークと有限基底関数を利用することで、FB-HyDONは既存の物理インフォームド演算子学習法に関連するトレーニング制限を効果的に緩和する。
我々は、高周波数高調波発振器、異なる粘度レベルでのバーガーズ方程式、および他の演算子学習モデルよりも大幅に改善されたアレン・カーン方程式に対するアプローチを検証した。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - An efficient wavelet-based physics-informed neural networks for singularly perturbed problems [0.0]
物理インフォームドニューラルネットワーク(英: Physics-informed Neural Network、PINN)は、物理学を微分方程式として利用するディープラーニングモデルのクラスである。
単一摂動微分方程式を解くために,効率的なウェーブレットベースPINNモデルを提案する。
このアーキテクチャにより、トレーニングプロセスはウェーブレット空間内のソリューションを探索することができ、プロセスがより速く、より正確になる。
論文 参考訳(メタデータ) (2024-09-18T10:01:37Z) - An Advanced Physics-Informed Neural Operator for Comprehensive Design Optimization of Highly-Nonlinear Systems: An Aerospace Composites Processing Case Study [0.0]
本稿では,複数の入力関数を持つ複雑なシステムに適した物理インフォームドDeepONetを提案する。
提案モデルでは,高精度な高次元設計空間を処理し,バニラ物理インフォームドDeepONetを2桁の精度で上回っている。
論文 参考訳(メタデータ) (2024-06-20T20:19:30Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Learning Generic Solutions for Multiphase Transport in Porous Media via
the Flux Functions Operator [0.0]
DeepDeepONetは、レンダリングフラックスDEを高速化する強力なツールとして登場した。
我々は、入力ペア出力の観測を伴わずにこのマッピングを実現するために、Physical-In DeepONets (PI-DeepONets) を用いている。
論文 参考訳(メタデータ) (2023-07-03T21:10:30Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Mitigating spectral bias for the multiscale operator learning [14.404769413313371]
本稿では階層的行列アプローチに着想を得た階層的注意神経演算子(HANO)を提案する。
HANOは、スケール適応的な相互作用範囲とレベル階層上の自己アテンションを備えており、制御可能な線形コストでネストされた特徴計算を可能にする。
我々の数値実験により,HANOは多スケール問題に対して最先端(SOTA)法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-19T21:09:29Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Improved architectures and training algorithms for deep operator
networks [0.0]
演算子学習技術は無限次元バナッハ空間間の写像を学習するための強力なツールとして登場した。
我々は,ニューラルタンジェントカーネル(NTK)理論のレンズを用いて,ディープオペレータネットワーク(DeepONets)のトレーニングダイナミクスを解析した。
論文 参考訳(メタデータ) (2021-10-04T18:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。