論文の概要: MLPs and KANs for data-driven learning in physical problems: A performance comparison
- arxiv url: http://arxiv.org/abs/2504.11397v1
- Date: Tue, 15 Apr 2025 17:13:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:06:05.578143
- Title: MLPs and KANs for data-driven learning in physical problems: A performance comparison
- Title(参考訳): 物理問題におけるデータ駆動学習のためのMLPとkans:性能比較
- Authors: Raghav Pant, Sikan Li, Xingjian Li, Hassan Iqbal, Krishna Kumar,
- Abstract要約: Kolmogorov-Layer Networks(KAN)は、MLP(Multi-Arnold Perceptrons)に代表される従来のニューラルネットワークの代替品である。
将来を示す一方で、物理学に基づく問題における性能上の優位性はほとんど未解明のままである。
これはkansが有望な選択であり、物理システムを含むアプリケーションにおける効率性と精度のバランスを提供することを示唆している。
- 参考スコア(独自算出の注目度): 4.252092276491948
- License:
- Abstract: There is increasing interest in solving partial differential equations (PDEs) by casting them as machine learning problems. Recently, there has been a spike in exploring Kolmogorov-Arnold Networks (KANs) as an alternative to traditional neural networks represented by Multi-Layer Perceptrons (MLPs). While showing promise, their performance advantages in physics-based problems remain largely unexplored. Several critical questions persist: Can KANs capture complex physical dynamics and under what conditions might they outperform traditional architectures? In this work, we present a comparative study of KANs and MLPs for learning physical systems governed by PDEs. We assess their performance when applied in deep operator networks (DeepONet) and graph network-based simulators (GNS), and test them on physical problems that vary significantly in scale and complexity. Drawing inspiration from the Kolmogorov Representation Theorem, we examine the behavior of KANs and MLPs across shallow and deep network architectures. Our results reveal that although KANs do not consistently outperform MLPs when configured as deep neural networks, they demonstrate superior expressiveness in shallow network settings, significantly outpacing MLPs in accuracy over our test cases. This suggests that KANs are a promising choice, offering a balance of efficiency and accuracy in applications involving physical systems.
- Abstract(参考訳): 偏微分方程式(PDE)を機械学習問題とすることで解くことへの関心が高まっている。
近年,MLP(Multi-Layer Perceptrons)に代表される従来のニューラルネットワークの代替として,KAN(Kolmogorov-Arnold Networks)の探索が急増している。
将来を示す一方で、物理学に基づく問題における性能上の優位性はほとんど未解明のままである。
Kanは複雑な物理力学を捉えることができ、どの条件下では従来のアーキテクチャよりも優れていますか?
本研究では,PDEが管理する物理系を学習するためのKansとMPPの比較研究について述べる。
ディープオペレータネットワーク(DeepONet)やグラフネットワークベースシミュレータ(GNS)に適用した場合のパフォーマンスを評価し,スケールや複雑性に大きく異なる物理問題について検証する。
Kolmogorov Representation Theorem からインスピレーションを得て,浅層および深層ネットワークアーキテクチャにおける Kan および MLP の挙動について検討する。
実験の結果,深いニューラルネットワークとして設定された場合,KANはMLPを常に上回るわけではないが,浅いネットワーク設定では表現性が優れており,テストケースよりも精度が大幅に向上していることがわかった。
これはkansが有望な選択であり、物理システムを含むアプリケーションにおける効率性と精度のバランスを提供することを示唆している。
関連論文リスト
- SPIKANs: Separable Physics-Informed Kolmogorov-Arnold Networks [0.9999629695552196]
偏微分方程式(PDE)の解法として物理情報ニューラルネットワーク(PINN)が誕生した。
我々はSPIKAN(Sparable Physics-Informed Kolmogorov-Arnold Networks)を紹介する。
この新しいアーキテクチャは変数分離の原則をPIKANに適用し、各次元が個別のKAで扱われるような問題を分解する。
論文 参考訳(メタデータ) (2024-11-09T21:10:23Z) - A preliminary study on continual learning in computer vision using Kolmogorov-Arnold Networks [43.70716358136333]
Kolmogorov-Networks (KAN) は基本的に異なる数学的枠組みに基づいている。
Kansは継続的学習シナリオの忘れなど,いくつかの大きな問題に対処している。
コンピュータビジョンにおける連続的な学習課題における感性の評価によって調査を拡大する。
論文 参考訳(メタデータ) (2024-09-20T14:49:21Z) - Physics Informed Kolmogorov-Arnold Neural Networks for Dynamical Analysis via Efficent-KAN and WAV-KAN [0.12045539806824918]
物理インフォームド・コルモゴロフ・アルノルドニューラルネットワーク(PIKAN)を効率的なKANとWAV-KANにより実装する。
PIKANは従来のディープニューラルネットワークよりも優れた性能を示し、少ないレイヤで同じレベルの精度を実現し、計算オーバーヘッドを低減している。
論文 参考訳(メタデータ) (2024-07-25T20:14:58Z) - Kolmogorov Arnold Informed neural network: A physics-informed deep learning framework for solving forward and inverse problems based on Kolmogorov Arnold Networks [1.4053129774629072]
偏微分方程式(PDE)のためのAIは特に物理情報ニューラルネットワーク(PINN)の出現に顕著な注目を集めている。
最近のコルモゴロフ・アルノルドネットワーク(KAN)の出現は、それまでの計算収束に基づくPINNを強化する可能性を示している。
我々は,先進および逆問題の解法として,Kolmogorov-Arnold Neural Network (KINN) の代わりに Kan に基づく異なるPDE形式を提案する。
論文 参考訳(メタデータ) (2024-06-16T19:07:06Z) - A comprehensive and FAIR comparison between MLP and KAN representations for differential equations and operator networks [8.573300153709358]
Kolmogorov-Arnold Networks (KAN) は、最近標準表現モデルに代わる表現モデルとして導入された。
そこで我々はkansを用いて機械学習モデル(PIKAN)とDeep operatorモデル(DeepokaN)を構築し、前方および逆問題に対する微分方程式を解く。
論文 参考訳(メタデータ) (2024-06-05T04:10:36Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。