論文の概要: Optimized Architectures for Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2512.12448v1
- Date: Sat, 13 Dec 2025 20:14:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.266791
- Title: Optimized Architectures for Kolmogorov-Arnold Networks
- Title(参考訳): Kolmogorov-Arnoldネットワークのための最適化アーキテクチャ
- Authors: James Bagrow, Josh Bongard,
- Abstract要約: Kolmogorov-Arnoldネットワーク(KAN)をアーキテクチャ拡張で改善する努力は、Kansを魅力的なものにする複雑さによって妨げられている。
本稿では,スペーシフィケーションと組み合わされたオーバープロビジョンアーキテクチャを用いて,精度を犠牲にすることなく,コンパクトで解釈可能なkanを学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efforts to improve Kolmogorov-Arnold networks (KANs) with architectural enhancements have been stymied by the complexity those enhancements bring, undermining the interpretability that makes KANs attractive in the first place. Here we study overprovisioned architectures combined with sparsification to learn compact, interpretable KANs without sacrificing accuracy. Crucially, we focus on differentiable sparsification, turning architecture search into an end-to-end optimization problem. Across function approximation benchmarks, dynamical systems forecasting, and real-world prediction tasks, we demonstrate competitive or superior accuracy while discovering substantially smaller models. Overprovisioning and sparsification are synergistic, with the combination outperforming either alone. The result is a principled path toward models that are both more expressive and more interpretable, addressing a key tension in scientific machine learning.
- Abstract(参考訳): Kolmogorov-Arnoldネットワーク(KAN)をアーキテクチャ拡張で改善しようとする試みは、これらの拡張によってもたらされる複雑さに悩まされ、そもそもKansを魅力的なものにする解釈性を損なうことになった。
本稿では,スペーシフィケーションと組み合わされたオーバープロビジョンアーキテクチャを用いて,精度を犠牲にすることなく,コンパクトで解釈可能なkanを学習する。
重要なことに、我々は差別化可能なスパーシフィケーションに焦点を合わせ、アーキテクチャ検索をエンドツーエンドの最適化問題に変換する。
関数近似ベンチマーク、力学系予測、実世界の予測タスクなどを通じて、より小さなモデルを発見しながら、競争力や優れた精度を示す。
オーバープロビジョンとスパーシフィケーションは相乗効果があり、組み合わせは単独でより優れている。
その結果は、より表現力があり、解釈可能なモデルへの原則化されたパスであり、科学的な機械学習における重要な緊張に対処する。
関連論文リスト
- Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Principled Approximation Methods for Efficient and Scalable Deep Learning [4.082286997378594]
本論文は,ディープラーニングシステムの効率向上のための原理的近似法について考察する。
アーキテクチャ設計,モデル圧縮,最適化という,効率向上のための3つの主要なアプローチについて検討する。
私たちのコントリビューションは、スケーラブルで原則化された近似を通じて、計算的に難しい問題に取り組むことに集中しています。
論文 参考訳(メタデータ) (2025-08-29T18:17:48Z) - CARL: Causality-guided Architecture Representation Learning for an Interpretable Performance Predictor [6.014777261874645]
ニューラルアーキテクチャサーチ(NAS)の評価段階を加速する有望な手法として、性能予測器が登場した。
本稿では,アーキテクチャのクリティカルな(因果的)特徴と冗長な(非因果的)特徴を分離し,一般化可能なアーキテクチャ性能予測を目的とした因果性誘導型アーキテクチャ表現学習(CARL)手法を提案する。
5つのNAS探索空間の実験は、CARLの最先端の精度と優れた解釈可能性を示している。
論文 参考訳(メタデータ) (2025-06-04T14:30:55Z) - Multi-Exit Kolmogorov-Arnold Networks: enhancing accuracy and parsimony [0.0]
Kolmogorov-Arnold Networks (KAN) は高い精度と解釈可能性を組み合わせることで、科学的モデリングに有用である。
ここでは,各層がそれぞれ独自の予測分岐を持ち,ネットワークが複数の深さで正確な予測を同時に行えるマルチエグジットkanを紹介する。
このアーキテクチャは、各タスクに対して適切なレベルのモデルの複雑さを発見しながら、トレーニングを改善する深い監視を提供します。
論文 参考訳(メタデータ) (2025-06-03T18:41:30Z) - Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - Sparse Mixture-of-Experts for Compositional Generalization: Empirical Evidence and Theoretical Foundations of Optimal Sparsity [89.81738321188391]
本研究では,SMoEモデルにおけるタスク複雑性と最適空間の関係について検討する。
最適な間隔は、最小限のアクティベーション(1-2専門家)とフルアクティベーションの間にあり、その正確な数はタスクの複雑さに比例する。
論文 参考訳(メタデータ) (2024-10-17T18:40:48Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。