論文の概要: A Graph Meta-Network for Learning on Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2602.16316v1
- Date: Wed, 18 Feb 2026 09:53:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.567272
- Title: A Graph Meta-Network for Learning on Kolmogorov-Arnold Networks
- Title(参考訳): Kolmogorov-Arnoldネットワーク上での学習のためのグラフメタネットワーク
- Authors: Guy Bar-Shalom, Ami Tavory, Itay Evron, Maya Bechler-Speicher, Ido Guy, Haggai Maron,
- Abstract要約: 私たちはKolmogorov-Arnold Networks (KAN)で学ぶ最初の重量空間アーキテクチャであるWS-KANを開発した。
カンはアルノルズと同じ置換対称性を共有しており、カングラフを提案する。
我々は、WS-KANの表現力を分析し、入力KANのフォワードパスを複製できることを示す。
- 参考スコア(独自算出の注目度): 28.337888387996156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weight-space models learn directly from the parameters of neural networks, enabling tasks such as predicting their accuracy on new datasets. Naive methods -- like applying MLPs to flattened parameters -- perform poorly, making the design of better weight-space architectures a central challenge. While prior work leveraged permutation symmetries in standard networks to guide such designs, no analogous analysis or tailored architecture yet exists for Kolmogorov-Arnold Networks (KANs). In this work, we show that KANs share the same permutation symmetries as MLPs, and propose the KAN-graph, a graph representation of their computation. Building on this, we develop WS-KAN, the first weight-space architecture that learns on KANs, which naturally accounts for their symmetry. We analyze WS-KAN's expressive power, showing it can replicate an input KAN's forward pass - a standard approach for assessing expressiveness in weight-space architectures. We construct a comprehensive ``zoo'' of trained KANs spanning diverse tasks, which we use as benchmarks to empirically evaluate WS-KAN. Across all tasks, WS-KAN consistently outperforms structure-agnostic baselines, often by a substantial margin. Our code is available at https://github.com/BarSGuy/KAN-Graph-Metanetwork.
- Abstract(参考訳): 重量空間モデルはニューラルネットワークのパラメータから直接学習し、新しいデータセットで精度を予測するタスクを可能にする。
平らなパラメータにMDPを適用するようなネイティブメソッドは、パフォーマンスが悪く、より優れた重量空間アーキテクチャの設計が中心的な課題である。
それまでの作業では、標準ネットワークにおける置換対称性を利用してそのような設計を導いたが、コルモゴロフ・アルノルドネットワーク(KAN)には類似した分析やアーキテクチャは存在しない。
本研究では,KunがMPPと同じ置換対称性を持つことを示すとともに,計算のグラフ表現であるKan-graphを提案する。
これに基づいて、我々は、Kansで学習する最初の重量空間アーキテクチャであるWS-KANを開発し、その対称性を自然に説明します。
我々はWS-KANの表現力を分析し、重量空間アーキテクチャにおける表現性を評価するための標準アプローチである入力KANのフォワードパスを再現可能であることを示す。
我々は、WS-KANを実証的に評価するために、ベンチマークとして使用する様々なタスクにまたがる訓練されたkanの「zoo」を包括的に構築する。
すべてのタスクにおいて、WS-KANは、しばしばかなりのマージンで、構造に依存しないベースラインを一貫して上回ります。
私たちのコードはhttps://github.com/BarSGuy/KAN-Graph-Metanetwork.comで公開されています。
関連論文リスト
- Automatic Grid Updates for Kolmogorov-Arnold Networks using Layer Histograms [0.6445605125467574]
Kolmogorov-Arnold Networks (KAN)は、近年の論文で注目を集めているニューラルネットワークのクラスである。
Kansはパラメータ化された訓練可能なアクティベーション関数を活用し、解釈可能性の向上やシンボル方程式の学習精度の向上など、いくつかの利点を提供している。
論文 参考訳(メタデータ) (2025-11-11T18:51:44Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Equivariant Architectures for Learning in Deep Weight Spaces [54.61765488960555]
重み空間の学習のための新しいネットワークアーキテクチャを提案する。
入力として、事前訓練された不変量の重みとバイアスの連結をとる。
これらのレイヤを3つの基本的な操作で実装する方法を示す。
論文 参考訳(メタデータ) (2023-01-30T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。