論文の概要: Physics-Informed Neural Networks and Neural Operators for Parametric PDEs: A Human-AI Collaborative Analysis
- arxiv url: http://arxiv.org/abs/2511.04576v2
- Date: Fri, 07 Nov 2025 06:01:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 12:50:39.977669
- Title: Physics-Informed Neural Networks and Neural Operators for Parametric PDEs: A Human-AI Collaborative Analysis
- Title(参考訳): パラメトリックPDEのための物理インフォームニューラルネットワークとニューラル演算子:人間-AI協調解析
- Authors: Zhuo Zhang, Xiong Xiong, Sen Zhang, Yuan Zhao, Xi Yang,
- Abstract要約: PDEは、ソリューションがパラメータに依存する科学や工学において、至るところで発生します。
近年の機械学習の進歩は、パラメータ空間をまたいで一般化する学習ソリューション演算子によるPDE解決に革命をもたらした。
ニューラル演算子は従来の解法よりも103ドルから105ドル速く計算速度を向上できることを示す。
- 参考スコア(独自算出の注目度): 18.201079606404978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PDEs arise ubiquitously in science and engineering, where solutions depend on parameters (physical properties, boundary conditions, geometry). Traditional numerical methods require re-solving the PDE for each parameter, making parameter space exploration prohibitively expensive. Recent machine learning advances, particularly physics-informed neural networks (PINNs) and neural operators, have revolutionized parametric PDE solving by learning solution operators that generalize across parameter spaces. We critically analyze two main paradigms: (1) PINNs, which embed physical laws as soft constraints and excel at inverse problems with sparse data, and (2) neural operators (e.g., DeepONet, Fourier Neural Operator), which learn mappings between infinite-dimensional function spaces and achieve unprecedented generalization. Through comparisons across fluid dynamics, solid mechanics, heat transfer, and electromagnetics, we show neural operators can achieve computational speedups of $10^3$ to $10^5$ times faster than traditional solvers for multi-query scenarios, while maintaining comparable accuracy. We provide practical guidance for method selection, discuss theoretical foundations (universal approximation, convergence), and identify critical open challenges: high-dimensional parameters, complex geometries, and out-of-distribution generalization. This work establishes a unified framework for understanding parametric PDE solvers via operator learning, offering a comprehensive, incrementally updated resource for this rapidly evolving field
- Abstract(参考訳): PDEは、パラメータ(物理的性質、境界条件、幾何学)に依存する、科学や工学において普遍的に現れる。
従来の数値法では、パラメータごとにPDEを再解決する必要があるため、パラメータ空間探索は違法に高価である。
最近の機械学習の進歩、特に物理情報ニューラルネットワーク(PINN)とニューラルネットワークは、パラメータ空間をまたいで一般化する学習ソリューション演算子によってパラメトリックPDE解決に革命をもたらした。
本研究では,(1) 物理法則をソフト制約として組み込んだPINNと(2) ニューラル演算子(DeepONet, Fourier Neural Operatorなど)の2つのパラダイムを批判的に分析し,無限次元関数空間間のマッピングを学習し,前例のない一般化を実現する。
流体力学, 固体力学, 熱伝達, 電磁学の比較により, ニューラル演算子は, 計算速度を10^3$から10^5$に向上し, 計算精度を同等に保ちながら, 従来の解法よりも10^3$から10^5$に向上できることを示した。
本稿では,手法選択のための実践的なガイダンス,理論基礎(ユニバーサル近似,収束)の議論,そして,高次元パラメータ,複素幾何学,分布外一般化といった重要なオープン課題の特定について述べる。
この研究は、演算子学習を通じてパラメトリックPDEソルバを理解するための統一的なフレームワークを確立し、この急速に進化する分野のための包括的かつ漸進的に更新されたリソースを提供する。
関連論文リスト
- Learning Data-Efficient and Generalizable Neural Operators via Fundamental Physics Knowledge [8.269904705399474]
機械学習の最近の進歩により、ニューラルネットワークオペレータは物理的なシステムの進化をモデル化するための強力なサロゲートとして機能するようになった。
本稿では,元のPDEと簡易な基本形式の両方から共同で学習する多物理学習フレームワークを提案する。
我々のフレームワークはデータの効率を高め、予測誤差を減らし、アウト・オブ・ディストリビューション(OOD)の一般化を改善する。
論文 参考訳(メタデータ) (2026-02-16T20:45:10Z) - High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - Physics-Informed Latent Neural Operator for Real-time Predictions of time-dependent parametric PDEs [0.0]
ディープ・オペレーター・ネットワーク(DeepONet)は、偏微分方程式(PDE)によって支配される系の代理モデルとして約束されている。
本研究では,物理を直接学習プロセスに統合する物理インフォームトニューラルネットワークフレームワークPI-Latent-NOを提案する。
論文 参考訳(メタデータ) (2025-01-14T20:38:30Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Physics-Informed Geometry-Aware Neural Operator [1.2430809884830318]
工学設計の問題は、可変PDEパラメータとドメイン幾何学の下でパラメトリック部分微分方程式(PDE)を解くことである。
近年、ニューラル演算子はPDE演算子を学習し、PDE解を素早く予測する。
我々はPDEパラメータとドメインジオメトリの両方を同時に一般化する新しい手法であるPhysical-Informed Geometry-Aware Neural Operator (PI-GANO)を導入する。
論文 参考訳(メタデータ) (2024-08-02T23:11:42Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Learning Only On Boundaries: a Physics-Informed Neural operator for
Solving Parametric Partial Differential Equations in Complex Geometries [10.250994619846416]
ラベル付きデータなしでパラメータ化境界値問題を解決する物理インフォームド・ニューラル演算子法を提案する。
数値実験により,パラメータ化複素測地と非有界問題の有効性が示された。
論文 参考訳(メタデータ) (2023-08-24T17:29:57Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。