論文の概要: Kernel-Adaptive PI-ELMs for Forward and Inverse Problems in PDEs with Sharp Gradients
- arxiv url: http://arxiv.org/abs/2507.10241v1
- Date: Mon, 14 Jul 2025 13:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.962551
- Title: Kernel-Adaptive PI-ELMs for Forward and Inverse Problems in PDEs with Sharp Gradients
- Title(参考訳): シャープ勾配を有するPDEの前方・逆問題に対するカーネル適応型PI-ELM
- Authors: Vikas Dwivedi, Balaji Srinivasan, Monica Sigovan, Bruno Sixou,
- Abstract要約: 本稿では,KAPI-ELM(Kernel Adaptive Physics-Informed Extreme Learning Machine)を紹介する。
局所的急勾配を含む前方および逆部分微分方程式(PDE)の問題を解くように設計されている。
KAPI-ELMは、フォワード設定と逆設定の両方で最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Kernel Adaptive Physics-Informed Extreme Learning Machine (KAPI-ELM), an adaptive Radial Basis Function (RBF)-based extension of PI-ELM designed to solve both forward and inverse Partial Differential Equation (PDE) problems involving localized sharp gradients. While PI-ELMs outperform the traditional Physics-Informed Neural Networks (PINNs) in speed due to their single-shot, least square optimization, this advantage comes at a cost: their fixed, randomly initialized input layer limits their ability to capture sharp gradients. To overcome this limitation, we introduce a lightweight Bayesian Optimization (BO) framework that, instead of adjusting each input layer parameter individually as in traditional backpropagation, learns a small set of hyperparameters defining the statistical distribution from which the input weights are drawn. This novel distributional optimization strategy -- combining BO for input layer distributional parameters with least-squares optimization for output layer network parameters -- enables KAPI-ELM to preserve PI-ELM's speed while matching or exceeding the expressiveness of PINNs. We validate the proposed methodology on several challenging forward and inverse PDE benchmarks, including a 1D singularly perturbed convection-diffusion equation, a 2D Poisson equation with sharp localized sources, and a time-dependent advection equation. Notably, KAPI-ELM achieves state-of-the-art accuracy in both forward and inverse settings. In stiff PDE regimes, it matches or even outperforms advanced methods such as the Extended Theory of Functional Connections (XTFC), while requiring nearly an order of magnitude fewer tunable parameters. These results establish the potential of KAPI-ELM as a scalable, interpretable, and generalizable physics-informed learning framework, especially in stiff PDE regimes.
- Abstract(参考訳): 本稿では,局所的な急勾配を含む部分微分方程式(PDE)問題を解決するために,適応的ラジアル基底関数(RBF)に基づくPI-ELMの拡張であるKAPI-ELM(Kernel Adaptive Physics-Informed Extreme Learning Machine)を提案する。
PI-ELMは単一ショットの最小二乗最適化によって従来の物理情報ニューラルネットワーク(PINN)よりも高速に動作しますが、この利点はコストがかかります。
この制限を克服するために、従来のバックプロパゲーションのように各入力層パラメータを個別に調整する代わりに、入力重みが引き出される統計分布を定義する小さなハイパーパラメータセットを学習する、軽量なベイズ最適化(BO)フレームワークを導入する。
入力層分布パラメータのBOと出力層ネットワークパラメータの最小二乗最適化を組み合わせたこの新しい分散最適化戦略により、KAPI-ELMはPINNの表現性を一致または超えながらPI-ELMの速度を維持することができる。
提案手法は, 特異摂動対流拡散方程式, 急激な局所化源を持つ2次元ポアソン方程式, 時間依存の対流方程式など, いくつかの挑戦的および逆PDEベンチマーク上で検証される。
特に、KAPI-ELMは、フォワードと逆の設定の両方で最先端の精度を達成する。
固いPDE体制では、拡張汎関数接続理論(XTFC)のような先進的な手法に適合し、さらに性能も向上する。
これらの結果は、特に強硬なPDE体制において、KAPI-ELMをスケーラブルで解釈可能で一般化可能な物理インフォームドラーニングフレームワークとしての可能性を確立する。
関連論文リスト
- PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
提案手法では,各ガウス平均と分散にトレーニング可能なパラメータを用い,トレーニング中の位置と形状を動的に調整する。
実験の結果,複雑なPDEを解くための堅牢なツールとしての可能性を示した。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - Local Loss Optimization in the Infinite Width: Stable Parameterization of Predictive Coding Networks and Target Propagation [8.35644084613785]
局所目標の2つの代表的設計に対して、無限幅極限における最大更新パラメータ化(mu$P)を導入する。
深層線形ネットワークを解析した結果,PCの勾配は1次勾配とガウス・ニュートン様勾配の間に介在していることが判明した。
我々は、特定の標準設定において、無限幅制限のPCは、一階勾配とよりよく似た振る舞いをすることを示した。
論文 参考訳(メタデータ) (2024-11-04T11:38:27Z) - Physics informed cell representations for variational formulation of multiscale problems [8.905008042172883]
偏微分方程式(PDE)を解くための有望なツールとして物理情報ニューラルネットワーク(PINN)が登場している
PINNはマルチスケールの特徴を持つPDEの解決には適していない。
本稿では,多層パーセプトロン(MLP)と結合した多層多層格子からなるセルベースモデルアーキテクチャを提案する。
本質的には,セルベースモデルと並列小クダnライブラリにより,コンバージェンス速度と数値精度が向上する。
論文 参考訳(メタデータ) (2024-05-27T02:42:16Z) - Efficiently Training Deep-Learning Parametric Policies using Lagrangian Duality [55.06411438416805]
制約付きマルコフ決定プロセス(CMDP)は、多くの高度な応用において重要である。
本稿では,パラメトリックアクターポリシーを効率的に訓練するための2段階深度決定規則(TS-DDR)を提案する。
現状の手法と比較して, 解の質を高め, 数桁の計算時間を削減できることが示されている。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。