論文の概要: PINN Balls: Scaling Second-Order Methods for PINNs with Domain Decomposition and Adaptive Sampling
- arxiv url: http://arxiv.org/abs/2510.21262v1
- Date: Fri, 24 Oct 2025 08:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.404639
- Title: PINN Balls: Scaling Second-Order Methods for PINNs with Domain Decomposition and Adaptive Sampling
- Title(参考訳): PINN Balls:ドメイン分割と適応サンプリングによるPINNの2階法スケーリング
- Authors: Andrea Bonfanti, Ismael Medina, Roman List, Björn Staeves, Roberto Santana, Marco Ellero,
- Abstract要約: 2次法は物理インフォームドニューラルネットワーク(PINN)のトレーニングを強化する
textscPINN Ballsは、科学機械学習の最先端技術よりも精度が高い。
- 参考スコア(独自算出の注目度): 5.947005574169347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Scientific Machine Learning have shown that second-order methods can enhance the training of Physics-Informed Neural Networks (PINNs), making them a suitable alternative to traditional numerical methods for Partial Differential Equations (PDEs). However, second-order methods induce large memory requirements, making them scale poorly with the model size. In this paper, we define a local Mixture of Experts (MoE) combining the parameter-efficiency of ensemble models and sparse coding to enable the use of second-order training. Our model -- \textsc{PINN Balls} -- also features a fully learnable domain decomposition structure, achieved through the use of Adversarial Adaptive Sampling (AAS), which adapts the DD to the PDE and its domain. \textsc{PINN Balls} achieves better accuracy than the state-of-the-art in scientific machine learning, while maintaining invaluable scalability properties and drawing from a sound theoretical background.
- Abstract(参考訳): 近年のScience Machine Learningの進歩により、2次法は物理情報ニューラルネットワーク(PINN)の訓練を強化し、PDE(Partial Differential Equations)の従来の数値手法の代替となることが示されている。
しかし、二階法は大きなメモリ要求を生じさせ、モデルサイズに劣る。
本稿では、アンサンブルモデルのパラメータ効率とスパース符号化を組み合わせた局所的エキスパート混合(MoE)を定義し、二階学習を実現する。
我々のモデル --textsc{PINN Balls} -- もまた完全に学習可能なドメイン分解構造を備えており、DDをPDEとそのドメインに適応させるAdversarial Adaptive Smpling (AAS)を使用して達成されている。
\textsc{PINN Balls} は、科学的機械学習の最先端技術よりも精度が高く、かつ、拡張性に欠ける特性を維持し、音理論的な背景から描画する。
関連論文リスト
- High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - Towards Model Discovery Using Domain Decomposition and PINNs [44.99833362998488]
物理インフォームドニューラルネットワーク(PINN)と有限基底物理インフォームドニューラルネットワーク(FBPINN)の2つの手法の性能評価を行った。
バニラPINN法と比較して,準定常時間領域のみのデータがほとんどない場合であっても,FBPINN法の方が優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-02T14:38:37Z) - Physics-Informed Neural Networks with Trust-Region Sequential Quadratic Programming [4.557963624437784]
最近の研究によると、物理情報ニューラルネットワーク(PINN)は比較的複雑な部分微分方程式(PDE)を学習できない可能性がある。
本稿では, 信頼領域逐次準計画法(trSQP-PINN)を導入し, PINNの障害モードに対処する。
PINNのようにペナル化ソフト制約損失を直接訓練するのに対し,本手法はソフト制約損失を利用して信頼範囲半径を適応的に調整しながら,ハード制約損失の線形2次近似を行う。
論文 参考訳(メタデータ) (2024-09-16T23:22:12Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Better Neural PDE Solvers Through Data-Free Mesh Movers [13.013830215107735]
我々は、移動メッシュを2分岐アーキテクチャに組み込む移動メッシュベースのニューラルPDEソルバ(MM-PDE)を開発した。
提案手法は,広く検討されているPDEシステムにおいて,適切なメッシュを生成し,精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-12-09T14:05:28Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - An Adaptive and Stability-Promoting Layerwise Training Approach for Sparse Deep Neural Network Architecture [0.0]
この研究は、与えられたトレーニングデータセットに対してうまく一般化するディープニューラルネットワーク(DNN)アーキテクチャを開発するための2段階適応フレームワークを提案する。
第1段階では、新しいレイヤを毎回追加し、前のレイヤでパラメータを凍結することで独立してトレーニングする、レイヤワイズトレーニングアプローチが採用されている。
本稿では, 学習アルゴリズムの望ましい特性として, エプシロン・デルタ安定促進の概念を導入し, 多様体正規化を用いることで, エプシロン・デルタ安定促進アルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-13T09:51:16Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。