論文の概要: Learning Where the Physics Is: Probabilistic Adaptive Sampling for Stiff PDEs
- arxiv url: http://arxiv.org/abs/2603.06287v1
- Date: Fri, 06 Mar 2026 13:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.807718
- Title: Learning Where the Physics Is: Probabilistic Adaptive Sampling for Stiff PDEs
- Title(参考訳): 物理がどこにあるかを学ぶ:剛性PDEのための確率的適応サンプリング
- Authors: Akshay Govind Srinivasan, Balaji Srinivasan,
- Abstract要約: PIELMのカーネルを適応的にサンプリングする「物理の位置を表す確率密度関数」を学習するフレームワークを提案する。
重み付き期待最大化(EM)アルゴリズムを用いることで,GMM-PIELMは高数値誤差領域の放射基底関数中心を自律的に集中する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Modeling stiff partial differential equations (PDEs) with sharp gradients remains a significant challenge for scientific machine learning. While Physics-Informed Neural Networks (PINNs) struggle with spectral bias and slow training times, Physics-Informed Extreme Learning Machines (PIELMs) offer a rapid, closed-form linear solution but are fundamentally limited by physics-agnostic, random initialization. We introduce the Gaussian Mixture Model Adaptive PIELM (GMM-PIELM), a probabilistic framework that learns a probability density function representing the ``location of physics'' for adaptively sampling kernels of PIELMs. By employing a weighted Expectation-Maximization (EM) algorithm, GMM-PIELM autonomously concentrates radial basis function centers in regions of high numerical error, such as shock fronts and boundary layers. This approach dynamically improves the conditioning of the hidden layer without the expensive gradient-based optimization(of PINNs) or Bayesian search. We evaluate our methodology on 1D singularly perturbed convection-diffusion equations with diffusion coefficients $ν=10^{-4}$. Our method achieves $L_2$ errors up to $7$ orders of magnitude lower than baseline RBF-PIELMs, successfully resolving exponentially thin boundary layers while retaining the orders-of-magnitude speed advantage of the ELM architecture.
- Abstract(参考訳): 厳密な偏微分方程式(PDE)を鋭い勾配でモデル化することは、科学的な機械学習にとって重要な課題である。
物理インフォームドニューラルネットワーク(PINN)は、スペクトルバイアスと遅いトレーニング時間に苦しむ一方、物理学インフォームド・エクストリーム・ラーニング・マシン(PIELM)は、素早い閉形式線形解を提供するが、物理学に依存しないランダム初期化によって基本的に制限される。
本稿では,PIELMのカーネルを適応的にサンプリングする'物理配置'を表す確率密度関数を学習する確率的フレームワークであるGaussian Mixture Model Adaptive PIELM(GMM-PIELM)を紹介する。
GMM-PIELMは、重み付け期待最大化(EM)アルゴリズムを用いることで、ショックフロントや境界層などの高い数値誤差の領域において、放射基底関数中心を自律的に集中させる。
このアプローチは、高価な勾配に基づく最適化(PINN)やベイズ探索を使わずに隠れ層の条件付けを動的に改善する。
拡散係数が$ν=10^{-4}$の1次元特異摂動対流拡散方程式の方法論を評価する。
提案手法は,ベースラインRBF-PIELMよりも最大7ドルの誤差を最大7ドルの誤差で達成し,ELMアーキテクチャのオーダー・オブ・マグニチュード・スピードの優位性を保ちながら,指数関数的に薄い境界層を解くことに成功した。
関連論文リスト
- Soft Partition-based KAPI-ELM for Multi-Scale PDEs [0.0]
この研究は、ソフトパーティションベースのKernel-Adaptive Physics-Informed Extreme Learning Machineを導入している。
符号付き距離に基づく重み付けは、不規則周波数で学習する最小二乗を安定化させる。
定常線形PDE上では実証されているが、結果は、ソフトパーティションカーネル適応が、マルチスケールPDEに対して高速でアーキテクチャフリーなアプローチを提供することを示している。
論文 参考訳(メタデータ) (2026-01-13T16:43:38Z) - Deep vs. Shallow: Benchmarking Physics-Informed Neural Architectures on the Biharmonic Equation [0.0]
本稿では,高速なPINN変種であるRBF-PIELMを,高次PDEに対してラジアル基底アクティベーションを備えた極端学習マシンとして系統的にベンチマークする。
結果は、PINNよりも高速なトレーニングに$(350times)$、(10times)$よりも少ないパラメータで、同等のソリューション精度を実現しています。
論文 参考訳(メタデータ) (2025-10-06T04:54:04Z) - Kernel-Adaptive PI-ELMs for Forward and Inverse Problems in PDEs with Sharp Gradients [0.0]
本稿では,KAPI-ELM(Kernel Adaptive Physics-Informed Extreme Learning Machine)を紹介する。
局所的急勾配を含む前方および逆部分微分方程式(PDE)の問題を解くように設計されている。
KAPI-ELMは、フォワード設定と逆設定の両方で最先端の精度を達成する。
論文 参考訳(メタデータ) (2025-07-14T13:03:53Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [73.52999622724101]
本稿では,自動微分と任意のジオメトリの正確な勾配を求める最初の手法であるモリファイドグラフニューラル演算子(m$GNO)を提案する。
正規格子上のPDEの例では、$m$GNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - A hybrid MGA-MSGD ANN training approach for approximate solution of
linear elliptic PDEs [0.0]
MGA-MSGD(Modified Genetic-Multilevel Gradient Descent)トレーニングアルゴリズムを導入しました。
ANNによるPDEによって記述された3次元機械的問題の精度と効率を大幅に改善する。
論文 参考訳(メタデータ) (2020-12-18T10:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。