論文の概要: HyPINO: Multi-Physics Neural Operators via HyperPINNs and the Method of Manufactured Solutions
- arxiv url: http://arxiv.org/abs/2509.05117v1
- Date: Fri, 05 Sep 2025 13:59:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.605973
- Title: HyPINO: Multi-Physics Neural Operators via HyperPINNs and the Method of Manufactured Solutions
- Title(参考訳): HyPINO: HyperPINNによる多物理ニューラル演算子とその製造法
- Authors: Rafael Bischof, Michal Piovarči, Michael A. Kraus, Siddhartha Mishra, Bernd Bickel,
- Abstract要約: パラメトリックPDEの幅広いクラスにまたがるゼロショット一般化のために設計された多物理ニューラル演算子であるHyPINOについて述べる。
このモデルは、PDEパラメトリゼーションをターゲットとする物理情報ニューラルネットワーク(PINN)にマッピングし、線形楕円型、双曲型、放物型方程式を2次元で扱うことができる。
HyPINOは、PINNによる7つのベンチマーク問題、U-Net、文学、物理インフォームドニューラル演算子(PINO)よりも優れたゼロショット精度を実現している。
- 参考スコア(独自算出の注目度): 16.904297509040777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present HyPINO, a multi-physics neural operator designed for zero-shot generalization across a broad class of parametric PDEs without requiring task-specific fine-tuning. Our approach combines a Swin Transformer-based hypernetwork with mixed supervision: (i) labeled data from analytical solutions generated via the Method of Manufactured Solutions (MMS), and (ii) unlabeled samples optimized using physics-informed objectives. The model maps PDE parametrizations to target Physics-Informed Neural Networks (PINNs) and can handle linear elliptic, hyperbolic, and parabolic equations in two dimensions with varying source terms, geometries, and mixed Dirichlet/Neumann boundary conditions, including interior boundaries. HyPINO achieves strong zero-shot accuracy on seven benchmark problems from PINN literature, outperforming U-Nets, Poseidon, and Physics-Informed Neural Operators (PINO). Further, we introduce an iterative refinement procedure that compares the physics of the generated PINN to the requested PDE and uses the discrepancy to generate a "delta" PINN. Summing their contributions and repeating this process forms an ensemble whose combined solution progressively reduces the error on six benchmarks and achieves over 100x gain in average $L_2$ loss in the best case, while retaining forward-only inference. Additionally, we evaluate the fine-tuning behavior of PINNs initialized by HyPINO and show that they converge faster and to lower final error than both randomly initialized and Reptile-meta-learned PINNs on five benchmarks, performing on par on the remaining two. Our results highlight the potential of this scalable approach as a foundation for extending neural operators toward solving increasingly complex, nonlinear, and high-dimensional PDE problems with significantly improved accuracy and reduced computational cost.
- Abstract(参考訳): タスク固有の微調整を必要とせず、幅広いパラメトリックPDEのクラスにまたがるゼロショット一般化のために設計された多機能ニューラルネットワークHyPINOを提案する。
我々のアプローチは、Swin Transformerベースのハイパーネットワークと混在監視を組み合わせたものです。
一 製造ソリューション法(MMS)により生成された分析ソリューションからのラベル付きデータ及び
(II)物理インフォームド目標を用いて最適化されたラベルなし試料。
このモデルは、PDEパラメトリゼーションを対象とする物理情報ニューラルネットワーク(PINN)にマッピングし、線形楕円型、双曲型、放物型方程式を2次元で扱うことができる。
HyPINOは、PINNの文献による7つのベンチマーク問題、U-Net、Poseidon、PINO(Pilsical-Informed Neural Operators)に比較して、強力なゼロショット精度を実現している。
さらに、生成したPINNの物理を要求されたPDEと比較し、その差を利用して「デルタ」PINNを生成する反復洗練手順を導入する。
コントリビューションを和らげてこのプロセスを繰り返すと、組み合わせたソリューションが6つのベンチマークのエラーを徐々に減らし、ベストケースでは平均$L_2$損失で100倍以上のゲインを達成し、フォワードのみの推論を維持しているアンサンブルを形成する。
さらに,HyPINOによって初期化されたPINNの微調整挙動を評価し,5つのベンチマークでランダムに初期化およびreptile-meta学習したPINNよりも高速に収束し,最終誤差を低くし,残りの2つのベンチマークで同等に動作することを示す。
より複雑で非線形で高次元のPDE問題を解き、精度を著しく向上し、計算コストを削減しようとするニューラルネットワークの基盤として、このスケーラブルなアプローチの可能性を強調した。
関連論文リスト
- High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
提案手法では,各ガウス平均と分散にトレーニング可能なパラメータを用い,トレーニング中の位置と形状を動的に調整する。
実験の結果,複雑なPDEを解くための堅牢なツールとしての可能性を示した。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - General-Kindred Physics-Informed Neural Network to the Solutions of Singularly Perturbed Differential Equations [11.121415128908566]
我々は,Singular Perturbation Differential Equations(SPDE)の解法として,GKPINN(General-Kindred Physics-Informed Neural Network)を提案する。
この手法は, 境界層の事前知識を方程式から利用し, 境界層を近似するPINNを支援する新しいネットワークを確立する。
GKPINNは,確立したPINN法と比較して,2~4桁の誤差を2~4桁に削減し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-08-27T02:03:22Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。