論文の概要: Shift-Invariant Attribute Scoring for Kolmogorov-Arnold Networks via Shapley Value
- arxiv url: http://arxiv.org/abs/2510.01663v1
- Date: Thu, 02 Oct 2025 04:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.993289
- Title: Shift-Invariant Attribute Scoring for Kolmogorov-Arnold Networks via Shapley Value
- Title(参考訳): 共有値を用いたコルモゴロフ・アルノルドネットワークのシフト不変属性スコーリング
- Authors: Wangxuan Fan, Ching Wang, Siqi Li, Nan Liu,
- Abstract要約: Kolmogorov-Arnold Networks (KAN) は、エッジ上で学習可能なスプラインベースのアクティベーション関数を利用することによってこの問題に対処する。
そこで我々はShapley値属性を用いた刈り込みフレームワークShapKANを提案し,ノードの重要度をシフト不変な方法で評価する。
当社のアプローチでは,リソース制約のある環境への展開を容易にすることにより,kanの解釈可能性の向上を実現している。
- 参考スコア(独自算出の注目度): 5.757852060704622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many real-world applications, understanding feature-outcome relationships is as crucial as achieving high predictive accuracy. While traditional neural networks excel at prediction, their black-box nature obscures underlying functional relationships. Kolmogorov--Arnold Networks (KANs) address this by employing learnable spline-based activation functions on edges, enabling recovery of symbolic representations while maintaining competitive performance. However, KAN's architecture presents unique challenges for network pruning. Conventional magnitude-based methods become unreliable due to sensitivity to input coordinate shifts. We propose \textbf{ShapKAN}, a pruning framework using Shapley value attribution to assess node importance in a shift-invariant manner. Unlike magnitude-based approaches, ShapKAN quantifies each node's actual contribution, ensuring consistent importance rankings regardless of input parameterization. Extensive experiments on synthetic and real-world datasets demonstrate that ShapKAN preserves true node importance while enabling effective network compression. Our approach improves KAN's interpretability advantages, facilitating deployment in resource-constrained environments.
- Abstract(参考訳): 多くの実世界のアプリケーションにとって、特徴と成果の関係を理解することは、高い予測精度を達成するのと同じくらい重要である。
従来のニューラルネットワークは予測に優れているが、ブラックボックスの性質は機能的関係を曖昧にしている。
Kolmogorov--Arnold Networks (KAN)は、エッジ上で学習可能なスプラインベースのアクティベーション関数を利用することで、競合性能を維持しながらシンボル表現の回復を可能にする。
しかし、kanのアーキテクチャは、ネットワークプルーニングに固有の課題を提示している。
従来の等級に基づく手法は、入力座標シフトに対する感度によって信頼性が低下する。
そこで本稿では,Shapley値属性を用いたプルーニングフレームワークである‘textbf{ShapKAN} を提案し,ノードの重要度をシフト不変な方法で評価する。
マグニチュードベースのアプローチとは異なり、ShapKANは各ノードの実際のコントリビューションを定量化し、入力パラメータ化に関わらず、一貫した重要なランキングを保証する。
合成および実世界のデータセットに関する大規模な実験は、ShapKANが有効なネットワーク圧縮を実現しつつ、真のノードの重要性を保っていることを示している。
当社のアプローチでは,リソース制約のある環境への展開を容易にすることにより,kanの解釈可能性の向上を実現している。
関連論文リスト
- Resource-Aware Neural Network Pruning Using Graph-based Reinforcement Learning [0.8890833546984916]
本稿では,グラフベースの観測空間をAutoMLフレームワークに統合することで,ニューラルネットワークのプルーニングに新たなアプローチを提案する。
本フレームワークは,対象ニューラルネットワークのグラフ表現を導入することにより,刈り込み処理を変換する。
作用空間に対しては、連続プルーニング比から細粒な二分作用空間へ遷移する。
論文 参考訳(メタデータ) (2025-09-04T15:05:05Z) - Contrastive clustering based on regular equivalence for influential node identification in complex networks [10.538045764554019]
ReCCは、影響のあるノード識別のための新しい非教師なしフレームワークである。
ネットワーク再構成損失を使用して事前トレーニングを行い、コントラストとクラスタリングの損失を組み合わせた微調整を行う。
大規模な実験により、ReCCはいくつかのベンチマークで最先端のアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2025-08-30T09:34:39Z) - Lattice-Based Pruning in Recurrent Neural Networks via Poset Modeling [0.0]
リカレントニューラルネットワーク(RNN)はシーケンスモデリングタスクの中心であるが、その高い計算複雑性はスケーラビリティとリアルタイムデプロイメントの課題を引き起こす。
本稿では,RNNを部分的に順序付けられた集合(命題)としてモデル化し,対応する依存格子を構成する新しいフレームワークを提案する。
既約ニューロンを同定することにより、格子ベースのプルーニングアルゴリズムは、冗長なニューロンを除去しながら、重要な接続を選択的に保持する。
論文 参考訳(メタデータ) (2025-02-23T10:11:38Z) - Matcha: Mitigating Graph Structure Shifts with Test-Time Adaptation [66.40525136929398]
テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
グラフの構造シフトへの効果的かつ効率的な適応を目的とした,革新的なフレームワークであるMatchaを提案する。
合成と実世界の両方のデータセットに対するMatchaの有効性を検証し、構造と属性シフトの様々な組み合わせにおける頑健さを実証した。
論文 参考訳(メタデータ) (2024-10-09T15:15:40Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Convolutional Kolmogorov-Arnold Networks [41.94295877935867]
我々はConvolutional Kolmogorov-Arnold Networks(KANs)を紹介する。
Kanは従来の固定重カーネルを学習可能な非線形関数に置き換える。
我々は、Fashion-MNISTデータセット上でConvolutional Kansを評価し、ベースラインCNNと比較して最大50%少ないパラメータで競合精度を実証した。
論文 参考訳(メタデータ) (2024-06-19T02:09:44Z) - On Oversquashing in Graph Neural Networks Through the Lens of Dynamical Systems [28.351050664151536]
Message-Passing Neural Networksの一般的な問題はオーバーカッシング(oversquashing)である。
本稿では, 過疎化に対処する新たな視点を導入し, グローバルおよびローカルな非拡散性のシステム特性を活用する。
空間領域と重み領域の両方において反対称性を持つ一意にパラメータ化されたGNNモデルであるSWANを非拡散性を得る手段として提示する。
論文 参考訳(メタデータ) (2024-05-02T05:23:58Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。