論文の概要: PIP$^2$ Net: Physics-informed Partition Penalty Deep Operator Network
- arxiv url: http://arxiv.org/abs/2512.15086v1
- Date: Wed, 17 Dec 2025 05:04:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.859985
- Title: PIP$^2$ Net: Physics-informed Partition Penalty Deep Operator Network
- Title(参考訳): PIP$^2$ Net:物理インフォームドパーティションペナルティ深部演算子ネットワーク
- Authors: Hongjin Mi, Huiqiang Lun, Changhong Mou, Yeyu Zhang,
- Abstract要約: 演算子学習はパラメータ化偏微分方程式(PDE)の解を加速する強力なツールとなった
DeepONet や Fourier Neural Operator (FNO) のような既存のアーキテクチャは、強いパフォーマンスを示すが、しばしば大規模なトレーニングデータセットを必要とする。
PIP$2$Netを導入し、予測精度と表現性において、DeepONet、PI-ONet、POU-DeepONetを一貫して上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning has become a powerful tool for accelerating the solution of parameterized partial differential equations (PDEs), enabling rapid prediction of full spatiotemporal fields for new initial conditions or forcing functions. Existing architectures such as DeepONet and the Fourier Neural Operator (FNO) show strong empirical performance but often require large training datasets, lack explicit physical structure, and may suffer from instability in their trunk-network features, where mode imbalance or collapse can hinder accurate operator approximation. Motivated by the stability and locality of classical partition-of-unity (PoU) methods, we investigate PoU-based regularization techniques for operator learning and develop a revised formulation of the existing POU--PI--DeepONet framework. The resulting \emph{P}hysics-\emph{i}nformed \emph{P}artition \emph{P}enalty Deep Operator Network (PIP$^{2}$ Net) introduces a simplified and more principled partition penalty that improved the coordinated trunk outputs that leads to more expressiveness without sacrificing the flexibility of DeepONet. We evaluate PIP$^{2}$ Net on three nonlinear PDEs: the viscous Burgers equation, the Allen--Cahn equation, and a diffusion--reaction system. The results show that it consistently outperforms DeepONet, PI-DeepONet, and POU-DeepONet in prediction accuracy and robustness.
- Abstract(参考訳): 演算子学習は、パラメータ化偏微分方程式(PDE)の解を高速化する強力なツールとなり、新しい初期条件や強制関数に対する完全な時空間の迅速な予測を可能にした。
DeepONet や Fourier Neural Operator (FNO) のような既存のアーキテクチャは、強い経験的性能を示すが、しばしば大規模なトレーニングデータセットを必要とする。
The stability and locality of classical partition-of-unity (PoU) method, we investigated PoU-based regularization technique for operator learning and developed a revision formulation of the existing POU--PI--DeepONet framework。
結果として得られる \emph{P}hysics-\emph{i}nformed \emph{P}artition \emph{P}enalty Deep Operator Network (PIP$^{2}$ Net) は、DeepONetの柔軟性を犠牲にすることなく、協調されたトランク出力を改善する、シンプルでより原則化された分割ペナルティを導入している。
我々は, 粘性バーガース方程式, アレン-カーン方程式, 拡散反応系という3つの非線形PDEに対してPIP$^{2}$Netを評価する。
その結果、予測精度と堅牢性において、DeepONet、PI-DeepONet、POU-DeepONetを一貫して上回っていることがわかった。
関連論文リスト
- Spectral Embedding via Chebyshev Bases for Robust DeepONet Approximation [0.6752538702870791]
SpectralEmbeded DeepONet (SEDNet) は、トランクが座標入力ではなく、固定されたチェビシェフスペクトル辞書によって駆動される新しい変種である。
SEDNetは一貫して、DeepONet、FEDONet、SEDONetの間で最も低い相対的なL2エラーを達成しており、ベースラインのDeepONetよりも平均30~40%改善されている。
論文 参考訳(メタデータ) (2025-12-09T22:26:29Z) - PO-CKAN:Physics Informed Deep Operator Kolmogorov Arnold Networks with Chunk Rational Structure [10.56081138054608]
PO-CKANは、Chunkwise Rational Kolmogorov-Arnold-Arnold Networks (KANs)に基づく物理インフォームドディープ演算子フレームワークである。
論文 参考訳(メタデータ) (2025-10-09T20:18:24Z) - FEDONet : Fourier-Embedded DeepONet for Spectrally Accurate Operator Learning [0.21847754147782886]
DeepONetsは非線形演算子を学習するための強力なデータ駆動フレームワークとして登場した。
FEDONetは従来のDeepONetよりも優れたパフォーマンスを示している。
FEDONetは、すべてのベンチマークPDEに対して一貫して優れた再構築精度を提供する。
論文 参考訳(メタデータ) (2025-09-15T18:13:28Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Learning the solution operator of parametric partial differential
equations with physics-informed DeepOnets [0.0]
ディープ作用素ネットワーク(DeepONets)は、無限次元バナッハ空間間の非線形作用素を近似する実証能力によって注目されている。
DeepOnetモデルの出力をバイアスする効果的な正規化メカニズムを導入し、物理整合性を確保する新しいモデルクラスを提案する。
我々は,このシンプルかつ極めて効果的な拡張が,DeepOnetsの予測精度を大幅に向上するだけでなく,大規模なトレーニングデータセットの必要性を大幅に低減できることを示した。
論文 参考訳(メタデータ) (2021-03-19T18:15:42Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [62.43908463620527]
実際には、EPはMNISTよりも難しい視覚タスクにスケールしない。
我々は、有限なヌーディングの使用に固有のEPの勾配推定のバイアスがこの現象に責任があることを示しています。
これらの結果は、EPをディープニューラルネットワークにおける誤差勾配を計算するスケーラブルなアプローチとして強調し、ハードウェア実装を動機付けている。
論文 参考訳(メタデータ) (2021-01-14T10:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。