論文の概要: FS-KAN: Permutation Equivariant Kolmogorov-Arnold Networks via Function Sharing
- arxiv url: http://arxiv.org/abs/2509.24472v1
- Date: Mon, 29 Sep 2025 08:49:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.873247
- Title: FS-KAN: Permutation Equivariant Kolmogorov-Arnold Networks via Function Sharing
- Title(参考訳): FS-KAN:関数共有による置換等価Kolmogorov-Arnoldネットワーク
- Authors: Ran Elbaz, Guy Bar-Shalom, Yam Eitan, Fabrizio Frasca, Haggai Maron,
- Abstract要約: 置換関数共有kan (FS-KAN) は任意の置換対称性群に対して同変かつ不変なKA層を構築するための原理的アプローチである。
FS-KANは標準パラメータ共有層よりも優れたデータ効率を示すことを示す。
- 参考スコア(独自算出の注目度): 27.415937333981905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Permutation equivariant neural networks employing parameter-sharing schemes have emerged as powerful models for leveraging a wide range of data symmetries, significantly enhancing the generalization and computational efficiency of the resulting models. Recently, Kolmogorov-Arnold Networks (KANs) have demonstrated promise through their improved interpretability and expressivity compared to traditional architectures based on MLPs. While equivariant KANs have been explored in recent literature for a few specific data types, a principled framework for applying them to data with permutation symmetries in a general context remains absent. This paper introduces Function Sharing KAN (FS-KAN), a principled approach to constructing equivariant and invariant KA layers for arbitrary permutation symmetry groups, unifying and significantly extending previous work in this domain. We derive the basic construction of these FS-KAN layers by generalizing parameter-sharing schemes to the Kolmogorov-Arnold setup and provide a theoretical analysis demonstrating that FS-KANs have the same expressive power as networks that use standard parameter-sharing layers, allowing us to transfer well-known and important expressivity results from parameter-sharing networks to FS-KANs. Empirical evaluations on multiple data types and symmetry groups show that FS-KANs exhibit superior data efficiency compared to standard parameter-sharing layers, by a wide margin in certain cases, while preserving the interpretability and adaptability of KANs, making them an excellent architecture choice in low-data regimes.
- Abstract(参考訳): パラメータ共有スキームを用いた置換同変ニューラルネットワークは、幅広いデータ対称性を活用するための強力なモデルとして登場し、結果として得られるモデルの一般化と計算効率を大幅に向上させた。
近年、KAN(Kolmogorov-Arnold Networks)は、MLPに基づく従来のアーキテクチャと比較して、解釈可能性と表現性を改善した。
変分カンは、いくつかの特定のデータ型について最近の文献で研究されているが、一般的な文脈における置換対称性を持つデータに適用するための原則的な枠組みはいまだ残っていない。
本稿では,任意の置換対称性群に対して同変かつ不変なKA層を構築するための原理的アプローチである関数共有KA(FS-KAN)を紹介する。
我々は,これらのFS-KAN層の基本構成を,パラメータ共有スキームをKolmogorov-Arnoldセットアップに一般化し,FS-KANが標準パラメータ共有層を使用するネットワークと同じ表現力を持つことを示す理論的解析を行い,パラメータ共有ネットワークからFS-KANへのよく知られた重要な表現性結果の転送を可能にする。
複数のデータ型と対称性群に関する実証的な評価は、FS-KANが標準パラメータ共有層よりも優れたデータ効率を示すことを示している。
関連論文リスト
- GS-KAN: Parameter-Efficient Kolmogorov-Arnold Networks via Sprecher-Type Shared Basis Functions [0.0]
我々は、David Sprecherの重ね合わせ定理の洗練に触発された軽量アーキテクチャであるGS-KAN(Generalized Sprecher-KAN)を提案する。
GS-KANは、学習可能な線形変換を1層に1つの学習可能な共有親関数に適用することにより、独自のエッジ関数を構築する。
その結果,GS-KANはパラメータ効率を向上しつつ,連続関数タスクにおける近似と標準kanベースラインの両方に優れていた。
論文 参考訳(メタデータ) (2025-12-09T19:56:36Z) - ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Convolutional Kolmogorov-Arnold Networks [41.94295877935867]
我々はConvolutional Kolmogorov-Arnold Networks(KANs)を紹介する。
Kanは従来の固定重カーネルを学習可能な非線形関数に置き換える。
我々は、Fashion-MNISTデータセット上でConvolutional Kansを評価し、ベースラインCNNと比較して最大50%少ないパラメータで競合精度を実証した。
論文 参考訳(メタデータ) (2024-06-19T02:09:44Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - Equivariance and generalization in neural networks [0.0]
ネットワーク特性間の翻訳的等式を組み込んだ結果に焦点をあてる。
等変ネットワークの利点は、複素スカラー場の理論を研究することによって実証される。
ほとんどのタスクにおいて、最良の同変アーキテクチャは、非同変アーキテクチャよりもはるかに優れた性能と一般化を達成できる。
論文 参考訳(メタデータ) (2021-12-23T12:38:32Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。