論文の概要: Enhancing Physics-Informed Neural Networks with a Hybrid Parallel Kolmogorov-Arnold and MLP Architecture
- arxiv url: http://arxiv.org/abs/2503.23289v1
- Date: Sun, 30 Mar 2025 02:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.038687
- Title: Enhancing Physics-Informed Neural Networks with a Hybrid Parallel Kolmogorov-Arnold and MLP Architecture
- Title(参考訳): ハイブリッド並列Kolmogorov-ArnoldとMLPアーキテクチャによる物理インフォームニューラルネットワークの強化
- Authors: Zuyu Xu, Bin Lv,
- Abstract要約: 並列化されたkanとブランチを統一されたPINNフレームワークに統合する新しいアーキテクチャを提案する。
HPKM-PINNは、カンの解釈可能な関数近似と数値の非線形学習の相補的強度を最適にバランスさせるためのスケーリング係数xiを導入した。
これらの結果は、HPKM-PINNがKanの解釈可能性と堅牢性を活用できる能力を強調し、複雑なPDE駆動の問題を解決する汎用的でスケーラブルなツールとして位置づけている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have emerged as powerful tools for modeling complex physical systems, yet balancing high accuracy with computational efficiency remains a critical challenge in their convergence behavior. In this work, we propose the Hybrid Parallel Kolmogorov-Arnold Network (KAN) and Multi-Layer Perceptron (MLP) Physics-Informed Neural Network (HPKM-PINN), a novel architecture that synergistically integrates parallelized KAN and MLP branches within a unified PINN framework. The HPKM-PINN introduces a scaling factor {\xi}, to optimally balance the complementary strengths of KAN's interpretable function approximation and MLP's nonlinear feature learning, thereby enhancing predictive performance through a weighted fusion of their outputs. Through systematic numerical evaluations, we elucidate the impact of the scaling factor {\xi} on the model's performance in both function approximation and partial differential equation (PDE) solving tasks. Benchmark experiments across canonical PDEs, such as the Poisson and Advection equations, demonstrate that HPKM-PINN achieves a marked decrease in loss values (reducing relative error by two orders of magnitude) compared to standalone KAN or MLP models. Furthermore, the framework exhibits numerical stability and robustness when applied to various physical systems. These findings highlight the HPKM-PINN's ability to leverage KAN's interpretability and MLP's expressivity, positioning it as a versatile and scalable tool for solving complex PDE-driven problems in computational science and engineering.
- Abstract(参考訳): ニューラルネットワークは複雑な物理システムをモデリングするための強力なツールとして登場したが、高い精度と計算効率のバランスは、その収束挙動において重要な課題である。
本研究では,並列化KANとMLPを統合PINNフレームワークに相乗的に統合する新しいアーキテクチャであるHybrid Parallel Kolmogorov-Arnold Network (KAN)とMulti-Layer Perceptron (MLP) Physics-Informed Neural Network (HPKM-PINN)を提案する。
HPKM-PINN は、Kan の解釈可能な関数近似と MLP の非線形特徴学習の相補的強度を最適にバランスさせるスケーリング係数 {\xi} を導入し、出力の重み付けによる予測性能を向上させる。
系統的な数値評価により,関数近似および偏微分方程式(PDE)解法におけるスケーリング係数のモデル性能への影響を解明する。
Poisson や Advection などの標準 PDE のベンチマーク実験は、HPKM-PINN がスタンドアロンの Kan や MLP モデルと比較して損失値の顕著な減少(2桁の相対誤差の低減)を達成することを示した。
さらに, 各種物理系に適用した場合に, 数値安定性とロバスト性を示す。
これらの知見は、HPKM-PINN が Kan の解釈可能性と MLP の表現性を活用する能力を強調し、計算科学と工学における複雑な PDE 駆動の問題を解くための汎用的でスケーラブルなツールとして位置づけている。
関連論文リスト
- QCPINN: Quantum-Classical Physics-Informed Neural Networks for Solving PDEs [0.70224924046445]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)を解くための有望な方法として登場した。
本稿では、量子と古典成分を組み合わせた量子古典物理学インフォームドニューラルネットワーク(QCPINN)を提案する。
QCPINNは、古典的なアプローチで使用されるトレーニング可能なパラメータの約10%を必要としながら、安定した収束と同等の精度を達成する。
論文 参考訳(メタデータ) (2025-03-20T19:52:26Z) - PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
提案手法では,各ガウス平均と分散にトレーニング可能なパラメータを用い,トレーニング中の位置と形状を動的に調整する。
実験の結果,複雑なPDEを解くための堅牢なツールとしての可能性を示した。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - SPIKANs: Separable Physics-Informed Kolmogorov-Arnold Networks [0.9999629695552196]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
我々はSPIKAN(Sparable Physics-Informed Kolmogorov-Arnold Networks)を紹介する。
この新しいアーキテクチャは変数分離の原則をPIKANに適用し、各次元が個別のKAで扱われるような問題を分解する。
論文 参考訳(メタデータ) (2024-11-09T21:10:23Z) - Physics informed cell representations for variational formulation of multiscale problems [8.905008042172883]
偏微分方程式(PDE)を解くための有望なツールとして物理情報ニューラルネットワーク(PINN)が登場している
PINNはマルチスケールの特徴を持つPDEの解決には適していない。
本稿では,多層パーセプトロン(MLP)と結合した多層多層格子からなるセルベースモデルアーキテクチャを提案する。
本質的には,セルベースモデルと並列小クダnライブラリにより,コンバージェンス速度と数値精度が向上する。
論文 参考訳(メタデータ) (2024-05-27T02:42:16Z) - Neural-Integrated Meshfree (NIM) Method: A differentiable
programming-based hybrid solver for computational mechanics [1.7132914341329852]
本稿では、計算力学の分野における微分可能なプログラミングに基づくハイブリッドメッシュフリーアプローチである、ニューラル積分メッシュフリー(NIM)手法を提案する。
NIMは、従来の物理ベースのメッシュフリーな離散化技術とディープラーニングアーキテクチャをシームレスに統合する。
NIM フレームワークでは,強い形式ベース NIM (S-NIM) と局所変動形式ベース NIM (V-NIM) の2つの真のメッシュフリーな解法を提案する。
論文 参考訳(メタデータ) (2023-11-21T17:57:12Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。