論文の概要: FS-KAN: Permutation Equivariant Kolmogorov-Arnold Networks via Function Sharing
- arxiv url: http://arxiv.org/abs/2509.24472v1
- Date: Mon, 29 Sep 2025 08:49:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.873247
- Title: FS-KAN: Permutation Equivariant Kolmogorov-Arnold Networks via Function Sharing
- Title(参考訳): FS-KAN:関数共有による置換等価Kolmogorov-Arnoldネットワーク
- Authors: Ran Elbaz, Guy Bar-Shalom, Yam Eitan, Fabrizio Frasca, Haggai Maron,
- Abstract要約: 置換関数共有kan (FS-KAN) は任意の置換対称性群に対して同変かつ不変なKA層を構築するための原理的アプローチである。
FS-KANは標準パラメータ共有層よりも優れたデータ効率を示すことを示す。
- 参考スコア(独自算出の注目度): 27.415937333981905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Permutation equivariant neural networks employing parameter-sharing schemes have emerged as powerful models for leveraging a wide range of data symmetries, significantly enhancing the generalization and computational efficiency of the resulting models. Recently, Kolmogorov-Arnold Networks (KANs) have demonstrated promise through their improved interpretability and expressivity compared to traditional architectures based on MLPs. While equivariant KANs have been explored in recent literature for a few specific data types, a principled framework for applying them to data with permutation symmetries in a general context remains absent. This paper introduces Function Sharing KAN (FS-KAN), a principled approach to constructing equivariant and invariant KA layers for arbitrary permutation symmetry groups, unifying and significantly extending previous work in this domain. We derive the basic construction of these FS-KAN layers by generalizing parameter-sharing schemes to the Kolmogorov-Arnold setup and provide a theoretical analysis demonstrating that FS-KANs have the same expressive power as networks that use standard parameter-sharing layers, allowing us to transfer well-known and important expressivity results from parameter-sharing networks to FS-KANs. Empirical evaluations on multiple data types and symmetry groups show that FS-KANs exhibit superior data efficiency compared to standard parameter-sharing layers, by a wide margin in certain cases, while preserving the interpretability and adaptability of KANs, making them an excellent architecture choice in low-data regimes.
- Abstract(参考訳): パラメータ共有スキームを用いた置換同変ニューラルネットワークは、幅広いデータ対称性を活用するための強力なモデルとして登場し、結果として得られるモデルの一般化と計算効率を大幅に向上させた。
近年、KAN(Kolmogorov-Arnold Networks)は、MLPに基づく従来のアーキテクチャと比較して、解釈可能性と表現性を改善した。
変分カンは、いくつかの特定のデータ型について最近の文献で研究されているが、一般的な文脈における置換対称性を持つデータに適用するための原則的な枠組みはいまだ残っていない。
本稿では,任意の置換対称性群に対して同変かつ不変なKA層を構築するための原理的アプローチである関数共有KA(FS-KAN)を紹介する。
我々は,これらのFS-KAN層の基本構成を,パラメータ共有スキームをKolmogorov-Arnoldセットアップに一般化し,FS-KANが標準パラメータ共有層を使用するネットワークと同じ表現力を持つことを示す理論的解析を行い,パラメータ共有ネットワークからFS-KANへのよく知られた重要な表現性結果の転送を可能にする。
複数のデータ型と対称性群に関する実証的な評価は、FS-KANが標準パラメータ共有層よりも優れたデータ効率を示すことを示している。
関連論文リスト
- Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Convolutional Kolmogorov-Arnold Networks [41.94295877935867]
我々はConvolutional Kolmogorov-Arnold Networks(KANs)を紹介する。
Kanは従来の固定重カーネルを学習可能な非線形関数に置き換える。
我々は、Fashion-MNISTデータセット上でConvolutional Kansを評価し、ベースラインCNNと比較して最大50%少ないパラメータで競合精度を実証した。
論文 参考訳(メタデータ) (2024-06-19T02:09:44Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。