論文の概要: X-KAN: Optimizing Local Kolmogorov-Arnold Networks via Evolutionary Rule-Based Machine Learning
- arxiv url: http://arxiv.org/abs/2505.14273v1
- Date: Tue, 20 May 2025 12:26:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.169653
- Title: X-KAN: Optimizing Local Kolmogorov-Arnold Networks via Evolutionary Rule-Based Machine Learning
- Title(参考訳): X-KAN:進化的ルールベース機械学習によるローカルコルモゴロフ・アルノルドネットワークの最適化
- Authors: Hiroki Shiraishi, Hisao Ishibuchi, Masaya Nakata,
- Abstract要約: X-KANは、進化的ルールベースの機械学習フレームワークを通じて、複数のローカルコルモゴロフ・アルノルドネットワーク(KAN)を最適化する新しい手法である。
X-KANは近似精度において、XCSF、Multi-Layer Perceptron、Kanなどの従来の手法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 3.9394231697721023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Function approximation is a critical task in various fields. However, existing neural network approaches struggle with locally complex or discontinuous functions due to their reliance on a single global model covering the entire problem space. We propose X-KAN, a novel method that optimizes multiple local Kolmogorov-Arnold Networks (KANs) through an evolutionary rule-based machine learning framework called XCSF. X-KAN combines KAN's high expressiveness with XCSF's adaptive partitioning capability by implementing local KAN models as rule consequents and defining local regions via rule antecedents. Our experimental results on artificial test functions and real-world datasets demonstrate that X-KAN significantly outperforms conventional methods, including XCSF, Multi-Layer Perceptron, and KAN, in terms of approximation accuracy. Notably, X-KAN effectively handles functions with locally complex or discontinuous structures that are challenging for conventional KAN, using a compact set of rules (average 7.2 $\pm$ 2.3 rules). These results validate the effectiveness of using KAN as a local model in XCSF, which evaluates the rule fitness based on both accuracy and generality. Our X-KAN implementation is available at https://github.com/YNU-NakataLab/X-KAN.
- Abstract(参考訳): 関数近似は様々な分野において重要なタスクである。
しかし、既存のニューラルネットワークアプローチは、問題空間全体をカバーする単一のグローバルモデルに依存しているため、局所的に複雑あるいは不連続な機能に苦しむ。
我々は、XCSFと呼ばれる進化的ルールに基づく機械学習フレームワークを用いて、複数のローカルコルモゴロフ・アルノルドネットワーク(KAN)を最適化する新しい手法であるX-KANを提案する。
X-KANは、Kanの高表現性とXCSFの適応的パーティショニング能力とを結合し、ローカルkanモデルをルールとして実装し、ルールアンセセントを介してローカルリージョンを定義する。
実験の結果,X-KANはXCSF,Multi-Layer Perceptron,Kanなど従来の手法よりも近似精度が高いことがわかった。
特に、X-KAN はコンパクトなルールセット (平均7.2$\pm$ 2.3 規則) を用いて、従来の Kan では難しい局所的な複素構造や不連続構造を持つ関数を効果的に扱う。
これらの結果は,XCSFにおける局所モデルとしてkanを用いることの有効性を検証し,精度と一般性の両方に基づいてルール適合性を評価する。
我々のX-KAN実装はhttps://github.com/YNU-NakataLab/X-KANで利用可能です。
関連論文リスト
- asKAN: Active Subspace embedded Kolmogorov-Arnold Network [2.408451825799214]
Kolmogorov-Arnold Network (KAN)は、小規模AI+Scienceアプリケーションのための有望なニューラルネットワークアーキテクチャとして登場した。
本研究では、コルモゴロフ・アルノルドの定理のレンズを通して、この非フレキシビリティを研究する。
本稿では,Kanの関数表現をアクティブな部分空間方法論と相乗化する階層的フレームワークである,アクティブな部分空間埋め込みkanを提案する。
論文 参考訳(メタデータ) (2025-04-07T01:43:13Z) - Reimagining Linear Probing: Kolmogorov-Arnold Networks in Transfer Learning [18.69601183838834]
Kolmogorov-Arnold Networks (KAN) は、伝達学習における従来の線形探索手法の拡張である。
Kanは、従来の線形探索よりも一貫して優れており、精度と一般化の大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-09-12T05:36:40Z) - Kolmogorov-Smirnov GAN [52.36633001046723]
我々は、KSGAN(Kolmogorov-Smirnov Generative Adversarial Network)という新しい深層生成モデルを提案する。
既存のアプローチとは異なり、KSGANはKS距離の最小化として学習プロセスを定式化している。
論文 参考訳(メタデータ) (2024-06-28T14:30:14Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Region-Based Semantic Factorization in GANs [67.90498535507106]
本稿では,任意の画像領域についてGAN(Generative Adversarial Networks)が学習した潜在意味を分解するアルゴリズムを提案する。
適切に定義された一般化されたレイリー商を通して、アノテーションや訓練なしにそのような問題を解く。
様々な最先端のGANモデルに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-19T17:46:02Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Optimality-based Analysis of XCSF Compaction in Discrete Reinforcement
Learning [4.9444321684311925]
本稿では,新しい圧縮アルゴリズム(Greedy Niche Mass Compaction - GNMC)を導入する。
その結果、GNMCは適切なパラメトリエーションを施すと、機能近似誤差をわずかに改善する一方、人口規模は著しく減少することがわかった。
このメトリクスを迷路のような環境でよく使われるステップ・ツー・ゴールのメトリクスにリンクし、メトリクスが競合するよりも補完的であるかを説明します。
論文 参考訳(メタデータ) (2020-09-03T06:31:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。