論文の概要: A Practitioner's Guide to Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2510.25781v1
- Date: Tue, 28 Oct 2025 03:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.477636
- Title: A Practitioner's Guide to Kolmogorov-Arnold Networks
- Title(参考訳): Kolmogorov-Arnoldネットワークの実践者ガイド
- Authors: Amir Noorizadegan, Sifan Wang, Leevan Ling,
- Abstract要約: Kolmogorov-Arnold Networks (KANs) は、従来のマルチレイヤーパーセプトロン(MLP)に代わる有望な代替品として登場した。
本総説は,急速に拡大するKANSAの景観を体系的かつ包括的に概観するものである。
- 参考スコア(独自算出の注目度): 2.304209804119502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) have recently emerged as a promising alternative to traditional Multilayer Perceptrons (MLPs), inspired by the Kolmogorov-Arnold representation theorem. Unlike MLPs, which use fixed activation functions on nodes, KANs employ learnable univariate basis functions on edges, offering enhanced expressivity and interpretability. This review provides a systematic and comprehensive overview of the rapidly expanding KAN landscape, moving beyond simple performance comparisons to offer a structured synthesis of theoretical foundations, architectural variants, and practical implementation strategies. By collecting and categorizing a vast array of open-source implementations, we map the vibrant ecosystem supporting KAN development. We begin by bridging the conceptual gap between KANs and MLPs, establishing their formal equivalence and highlighting the superior parameter efficiency of the KAN formulation. A central theme of our review is the critical role of the basis function; we survey a wide array of choices, including B-splines, Chebyshev and Jacobi polynomials, ReLU compositions, Gaussian RBFs, and Fourier series, and analyze their respective trade-offs in terms of smoothness, locality, and computational cost. We then categorize recent advancements into a clear roadmap, covering techniques for improving accuracy, efficiency, and regularization. Key topics include physics-informed loss design, adaptive sampling, domain decomposition, hybrid architectures, and specialized methods for handling discontinuities. Finally, we provide a practical "Choose-Your-KAN" guide to help practitioners select appropriate architectures, and we conclude by identifying current research gaps. The associated GitHub repository https://github.com/AmirNoori68/kan-review complements this paper and serves as a structured reference for ongoing KAN research.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KANs) はKolmogorov-Arnold表現定理に触発された従来の多層パーセプトロン(MLPs)の代替として最近登場した。
ノード上の固定活性化関数を使用するMPPとは異なり、Kansはエッジ上で学習可能な単変量基底関数を使用し、表現性と解釈性を向上させる。
このレビューでは、カンランドの急速な拡大を体系的に網羅的に概観し、単純な性能比較を超えて、理論の基礎、アーキテクチャの変種、実践的な実装戦略の構造化された合成を提供する。
多数のオープンソース実装を収集・分類することにより,kan開発を支援する活気あるエコシステムを地図化する。
まず、kan と MLP の概念的ギャップを埋め、それらの形式的等価性を確立し、kan の定式化の優れたパラメータ効率を強調することから始める。
B-スプライン、チェビシェフ、ヤコビ多項式、ReLU合成、ガウスRBF、フーリエ級数など、幅広い選択肢を調査し、滑らかさ、局所性、計算コストの観点からそれぞれのトレードオフを分析する。
次に、最近の進歩を明確なロードマップに分類し、正確性、効率、正規化を改善するテクニックをカバーします。
主なトピックは、物理インフォームド損失設計、適応サンプリング、ドメイン分解、ハイブリッドアーキテクチャ、不連続性を扱う特殊な方法である。
最後に,実践者が適切なアーキテクチャを選択するのを支援するための実践的な"Choose-Your-KAN"ガイドを提供する。
関連するGitHubリポジトリ https://github.com/AmirNoori68/kan-reviewは、この論文を補完し、現在進行中の Kan 研究のための構造化されたリファレンスとして機能する。
関連論文リスト
- Initialization Schemes for Kolmogorov-Arnold Networks: An Empirical Study [9.450853542720909]
Kolmogorov-Arnold Networks (KAN)は、最近導入されたニューラルネットワークで、固定非線形性をトレーニング可能なアクティベーション関数に置き換えている。
この研究は、LeCunとGrorotにインスパイアされた2つの理論駆動のアプローチと、チューナブル指数を持つ経験的パワーローファミリーを提案する。
論文 参考訳(メタデータ) (2025-09-03T15:45:28Z) - HKAN: Hierarchical Kolmogorov-Arnold Network without Backpropagation [1.3812010983144802]
階層型コルモゴロフ・アルノルドネットワーク(Hierarchical Kolmogorov-Arnold Network、HKAN)は、最近提案されたコルモゴロフ・アルノルドネットワーク(KAN)に代わる新しいネットワークアーキテクチャである。
HKANはランダムな学習手法を採用し、基底関数のパラメータを固定し、最小二乗回帰を用いて線形集約を最適化する。
実証的な結果から、HKANは様々な回帰タスクにまたがって、カンに対して優れた精度と安定性を提供すると同時に、変数の重要性に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-01-30T08:44:54Z) - A Survey on Kolmogorov-Arnold Network [0.0]
Kolmogorov-Arnold Networks(KAN)の理論的基礎、進化、応用、そして将来の可能性
Kanは、固定活性化関数の代わりに学習可能なスプラインパラメータ化関数を使用することで、従来のニューラルネットワークと区別する。
本稿では,最近のニューラルアーキテクチャにおけるkanの役割を強調し,データ集約型アプリケーションにおける計算効率,解釈可能性,拡張性を改善するための今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-11-09T05:54:17Z) - Activation Space Selectable Kolmogorov-Arnold Networks [29.450377034478933]
非線形加法接続に基づくKAN(Kolmogorov-Arnold Network)はセレクト法に匹敵する性能を発揮することが証明されている。
このような可能性にもかかわらず、単一のアクティベーション関数空間を使用すると、kanの性能が低下し、関連するタスクが異なる。
この研究は、新しいAIのデータ中心設計の理解に寄与し、kanベースのネットワークアーキテクチャにおけるイノベーションの基礎となる参照を提供する。
論文 参考訳(メタデータ) (2024-08-15T11:34:05Z) - rKAN: Rational Kolmogorov-Arnold Networks [0.0]
コルモゴロフ・アルノルドネットワーク(KAN)の新たな基底関数としての有理関数の利用について検討する。
学習可能な基底関数としてPade近似と有理ヤコビ関数に基づく2つの異なるアプローチを提案し、有理観(rKAN)を確立する。
次に,様々な深層学習および物理インフォームドタスクにおけるrKANの性能を評価し,関数近似の実用性と有効性を示す。
論文 参考訳(メタデータ) (2024-06-20T16:59:38Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Human as Points: Explicit Point-based 3D Human Reconstruction from Single-view RGB Images [71.91424164693422]
我々はHaPと呼ばれる明示的なポイントベース人間再構築フレームワークを導入する。
提案手法は,3次元幾何学空間における完全明示的な点雲推定,操作,生成,洗練が特徴である。
我々の結果は、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
論文 参考訳(メタデータ) (2023-11-06T05:52:29Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。