論文の概要: FEKAN: Feature-Enriched Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2602.16530v1
- Date: Wed, 18 Feb 2026 15:17:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.629629
- Title: FEKAN: Feature-Enriched Kolmogorov-Arnold Networks
- Title(参考訳): FEKAN: Kolmogorov-Arnold Networks
- Authors: Sidharth S. Menon, Ameya D. Jagtap,
- Abstract要約: Kolmogorov-Arnold Networks (KANs) は多層パーセプトロンの魅力的な代替品として登場した。
FEKANは、計算効率と予測精度を改善しつつ、kanのすべての利点を保ちながら、シンプルで効果的な拡張である。
- 参考スコア(独自算出の注目度): 0.34376560669160394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) have recently emerged as a compelling alternative to multilayer perceptrons, offering enhanced interpretability via functional decomposition. However, existing KAN architectures, including spline-, wavelet-, radial-basis variants, etc., suffer from high computational cost and slow convergence, limiting scalability and practical applicability. Here, we introduce Feature-Enriched Kolmogorov-Arnold Networks (FEKAN), a simple yet effective extension that preserves all the advantages of KAN while improving computational efficiency and predictive accuracy through feature enrichment, without increasing the number of trainable parameters. By incorporating these additional features, FEKAN accelerates convergence, increases representation capacity, and substantially mitigates the computational overhead characteristic of state-of-the-art KAN architectures. We investigate FEKAN across a comprehensive set of benchmarks, including function-approximation tasks, physics-informed formulations for diverse partial differential equations (PDEs), and neural operator settings that map between input and output function spaces. For function approximation, we systematically compare FEKAN against a broad family of KAN variants, FastKAN, WavKAN, ReLUKAN, HRKAN, ChebyshevKAN, RBFKAN, and the original SplineKAN. Across all tasks, FEKAN demonstrates substantially faster convergence and consistently higher approximation accuracy than the underlying baseline architectures. We also establish the theoretical foundations for FEKAN, showing its superior representation capacity compared to KAN, which contributes to improved accuracy and efficiency.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KAN) は、最近、多層パーセプトロンの魅力的な代替品として登場し、機能分解による解釈性の向上を提供している。
しかし, スプライン, ウェーブレット, ラジアルバスなどの既存アーキテクチャでは, 計算コストが高く, 収束が遅いため, スケーラビリティや実用性が制限されている。
ここでは,機能強化による計算効率の向上と予測精度の向上を図りながら,トレーニング可能なパラメータの数を増やすことなく,KANの利点をすべて維持できる簡易かつ効果的な拡張であるFeature-Enriched Kolmogorov-Arnold Networks(FEKAN)を紹介する。
これらの追加機能を組み込むことで、FEKANは収束を加速し、表現能力を高め、最先端のkanアーキテクチャの計算オーバーヘッド特性を大幅に軽減する。
本稿では、関数近似タスク、多変数偏微分方程式(PDE)の物理インフォームド定式化、入力関数空間と出力関数空間をマッピングするニューラル演算子設定を含む、包括的なベンチマークセットにわたるFEKANについて検討する。
関数近似では、FEKANを、FastKAN、WavKAN、ReLUKAN、HRKAN、ChebyshevKAN、RBFKAN、およびオリジナルのSplineKANの幅広い種類と体系的に比較する。
すべてのタスクにおいて、FEKANは基礎となるベースラインアーキテクチャよりもはるかに高速な収束と一貫した近似精度を示す。
また、FEKANの理論的基盤を確立し、精度と効率の向上に寄与するkanと比較して、表現能力が優れていることを示す。
関連論文リスト
- TruKAN: Towards More Efficient Kolmogorov-Arnold Networks Using Truncated Power Functions [0.5097809301149341]
我々は,計算効率とコルモゴロフ・アルノルドネットワーク(KAN)の原理の遵守のトレードオフに対処するためにTruKANを提案する。
TruKan は Kan の B-スプライン基底を k-次理論から導かれる切り離されたパワー関数の族に置き換える。
全体として、TruKANは複雑な視覚タスクにおいて精度、計算効率、メモリ使用量で他のkanモデルより優れている。
論文 参考訳(メタデータ) (2026-02-02T19:33:02Z) - Projective Kolmogorov Arnold Neural Networks (P-KANs): Entropy-Driven Functional Space Discovery for Interpretable Machine Learning [0.0]
Kolmogorov-Arnold Networks (KAN) は学習可能な非線形性をノードからエッジに移動させる。
現在のkanは、高次元スプラインパラメータ空間の冗長性に起因する基本的な非効率性に悩まされている。
本稿では,エッジ関数発見を導く新しいトレーニングフレームワークであるProjective Kolmogorov-Arnold Networks (P-KANs)を紹介する。
論文 参考訳(メタデータ) (2025-09-24T12:15:37Z) - Low Tensor-Rank Adaptation of Kolmogorov--Arnold Networks [70.06682043272377]
コルモゴロフ-アルノルドネットワーク(KAN)は、様々な領域における多層知覚(MLP)の代替としての可能性を示した。
微調整カンのためのローテンソルランク適応(LoTRA)を開発した。
微調整カンによる様々な偏微分方程式(PDE)を効率的に解くためのLoTRAの適用について検討する。
論文 参考訳(メタデータ) (2025-02-10T04:57:07Z) - On the Convergence of (Stochastic) Gradient Descent for Kolmogorov--Arnold Networks [56.78271181959529]
Kolmogorov--Arnold Networks (KAN) はディープラーニングコミュニティで注目されている。
実験により、勾配降下(SGD)により最適化されたカンが、ほぼゼロに近い訓練損失を達成できることが示された。
論文 参考訳(メタデータ) (2024-10-10T15:34:10Z) - P1-KAN: an effective Kolmogorov-Arnold network with application to hydraulic valley optimization [4.56877715768796]
新しいコルモゴロフ・アルノルドネットワーク(KAN)は、高次元における潜在的に不規則な関数を近似するために提案されている。
精度と収束速度で多層パーセプトロンより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-04T08:14:24Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation [0.0]
本稿では,Chebyshev Kolmogorov-Arnoldの定理に触発された新しいニューラルネットワークアーキテクチャであるChebyshev Kolmogorov-Arnold Networkについて述べる。
ネットワークのエッジ上でChebyshevによってパラメータ化された学習可能な関数を利用することで、Chebyshev Kansは関数近似タスクの柔軟性、効率、解釈性を向上させる。
論文 参考訳(メタデータ) (2024-05-12T07:55:43Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。