論文の概要: Softly Symbolifying Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2512.07875v1
- Date: Thu, 27 Nov 2025 07:03:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.537106
- Title: Softly Symbolifying Kolmogorov-Arnold Networks
- Title(参考訳): ソフトシンボル化されたコルモゴロフ・アルノルドネットワーク
- Authors: James Bagrow, Josh Bongard,
- Abstract要約: Kolmogorov-Arnold Networks (KAN)は、解釈可能な機械学習への有望な道を提供する。
我々は,シンボルプリミティブを直接トレーニングに統合するソフトシンボル付きコルモゴロフ・アルノルドネットワーク(S2KAN)を提案する。
シンボリックベンチマーク、動的システム予測、実世界の予測タスクにおいて、かなり小さなモデルで競合的または優れた精度を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) offer a promising path toward interpretable machine learning: their learnable activations can be studied individually, while collectively fitting complex data accurately. In practice, however, trained activations often lack symbolic fidelity, learning pathological decompositions with no meaningful correspondence to interpretable forms. We propose Softly Symbolified Kolmogorov-Arnold Networks (S2KAN), which integrate symbolic primitives directly into training. Each activation draws from a dictionary of symbolic and dense terms, with learnable gates that sparsify the representation. Crucially, this sparsification is differentiable, enabling end-to-end optimization, and is guided by a principled Minimum Description Length objective. When symbolic terms suffice, S2KAN discovers interpretable forms; when they do not, it gracefully degrades to dense splines. We demonstrate competitive or superior accuracy with substantially smaller models across symbolic benchmarks, dynamical systems forecasting, and real-world prediction tasks, and observe evidence of emergent self-sparsification even without regularization pressure.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KAN)は、解釈可能な機械学習への有望な道を提供する。
しかし実際には、訓練されたアクティベーションは象徴的な忠実さを欠くことが多く、解釈可能な形式に意味のある対応を持たず、病理的な分解を学習する。
我々は,シンボルプリミティブを直接トレーニングに統合するソフトシンボル付きコルモゴロフ・アルノルドネットワーク(S2KAN)を提案する。
それぞれのアクティベーションは記号的および密接な用語の辞書から引き出され、表現を拡大する学習可能なゲートを持つ。
重要なことに、このスカラー化は微分可能であり、エンドツーエンドの最適化を可能にし、原理化された最小記述長の目的によって導かれる。
記号的用語が十分であるとき、S2KANは解釈可能な形式を発見する。
我々は,記号的ベンチマーク,力学系予測,実世界の予測タスク,および正規化圧力を伴わずに創発的自己分離の証拠を観測し,より小さなモデルで競合的あるいは優れた精度を実証する。
関連論文リスト
- Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Sparse Interpretable Deep Learning with LIES Networks for Symbolic Regression [22.345828337550575]
記号回帰は、データを正確に記述する閉形式の数学的表現を発見することを目的としている。
既存のSR手法は、しばしば人口に基づく探索や自己回帰モデリングに依存している。
LIES(Logarithm, Identity, Exponential, Sine)は,シンボル表現のモデル化に最適化された,解釈可能なプリミティブアクティベーションを備えたニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2025-06-09T22:05:53Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Neural Semantic Parsing with Extremely Rich Symbolic Meaning Representations [7.774674200374255]
分類学的階層におけるその位置に基づく概念のための新しい構成記号表現を導入する。
この表現はよりリッチな意味情報を提供し、解釈可能性を高める。
実験結果から,より豊かで複雑な意味表現に基づいて訓練された分類モデルは,評価基準を用いて従来のモデルに若干従属するが,語彙外概念を扱う場合よりも優れることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:06:01Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - SNoRe: Scalable Unsupervised Learning of Symbolic Node Representations [0.0]
提案したSNoReアルゴリズムは、個々のネットワークノードのシンボリックで人間の理解可能な表現を学習することができる。
SNoReの解釈可能な特徴は、個々の予測を直接説明するのに適している。
SNoReのベクトル化実装は大規模ネットワークにスケールし、現代のネットワーク学習および分析タスクに適している。
論文 参考訳(メタデータ) (2020-09-08T08:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。