論文の概要: FC-KAN: Function Combinations in Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2409.01763v2
- Date: Mon, 14 Oct 2024 06:07:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 03:23:46.692197
- Title: FC-KAN: Function Combinations in Kolmogorov-Arnold Networks
- Title(参考訳): FC-KAN:Kolmogorov-Arnoldネットワークにおける機能結合
- Authors: Hoang-Thang Ta, Duy-Quy Thai, Abu Bakar Siddiqur Rahman, Grigori Sidorov, Alexander Gelbukh,
- Abstract要約: FC-KANはKAN(Kolmogorov-Arnold Network)の一種で、低次元データ上で一般的な数学的関数を利用する。
FC-KANとマルチ層パーセプトロンネットワーク(MLP)と,BSRBF-KAN,EfficientKAN,FastKAN,FasterKANなどの既存のKANを比較した。
B-スプラインからの出力とガウス差分(DoG)を2次関数の形で組み合わせたFC-KANの変種は、5つの独立トレーニングランの平均で他のモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 48.39771439237495
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we introduce FC-KAN, a Kolmogorov-Arnold Network (KAN) that leverages combinations of popular mathematical functions such as B-splines, wavelets, and radial basis functions on low-dimensional data through element-wise operations. We explore several methods for combining the outputs of these functions, including sum, element-wise product, the addition of sum and element-wise product, quadratic function representation, and concatenation. In our experiments, we compare FC-KAN with multi-layer perceptron network (MLP) and other existing KANs, such as BSRBF-KAN, EfficientKAN, FastKAN, and FasterKAN, on the MNIST and Fashion-MNIST datasets. A variant of FC-KAN, which uses a combination of outputs from B-splines and Difference of Gaussians (DoG) in the form of a quadratic function, outperformed all other models on the average of 5 independent training runs. We expect that FC-KAN can leverage function combinations to design future KANs. Our repository is publicly available at: https://github.com/hoangthangta/FC_KAN.
- Abstract(参考訳): 本稿では,B-スプライン,ウェーブレット,ラジアル基底関数といった一般的な数学的関数を,要素演算による低次元データ上で組み合わせた,コルモゴロフ・アルノルドネットワーク(KAN)について紹介する。
これらの関数の出力を和、要素積、和と要素積の追加、二次関数表現、連結などを組み合わせるためのいくつかの方法を検討する。
実験では,MNISTデータセットとFashion-MNISTデータセットを用いて,FC-KANとBSRBF-KAN,EfficientKAN,FastKAN,FasterKANなどの既存のKANとを比較した。
B-スプラインからの出力とガウス差分(DoG)を2次関数の形で組み合わせたFC-KANの変種は、5つの独立したトレーニングランの平均で他のモデルよりも優れていた。
我々は,FC-KANが機能の組み合わせを利用して将来のkanを設計できることを期待している。
私たちのリポジトリは、https://github.com/hoangthangta/FC_KAN.comで公開されています。
関連論文リスト
- LSS-SKAN: Efficient Kolmogorov-Arnold Networks based on Single-Parameterized Function [4.198997497722401]
Kolmogorov-Arnold Networks (KAN) ネットワークは高視認性のために注目されている。
そこで本研究では,基礎関数が1つの学習可能なパラメータのみを利用するSKANという優れたKAを提案する。
LSS-SKANはMNISTデータセットよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-10-19T02:44:35Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
しかし、スプライン関数は、機械学習において重要な事前知識であるタスクの対称性を尊重しないかもしれない。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Kolmogorov-Arnold Transformer [72.88137795439407]
Kolmogorov-Arnold Transformer(KAT)は,階層をKAN(Kolmogorov-Arnold Network)層に置き換える新しいアーキテクチャである。
C1)基本関数,(C2)非効率,(C3)重みの3つの主要な課題を特定する。
これらの設計により、KATは従来のトランスフォーマーよりも優れている。
論文 参考訳(メタデータ) (2024-09-16T17:54:51Z) - Rethinking the Function of Neurons in KANs [1.223779595809275]
コルモゴロフ・アルノルドネットワーク(KAN)のニューロンは、コルモゴロフ・アルノルド表現定理によって動機付けられた単純な和を実行する。
本研究では,KANニューロンに対する代替多変量関数の同定の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-30T09:04:23Z) - BSRBF-KAN: A combination of B-splines and Radial Basis Functions in Kolmogorov-Arnold Networks [3.844398528249339]
本稿では,B-splines と radial basis function (RBF) を組み合わせたコルモゴロフ・アーノルドネットワーク (KAN) のBSRBF-KANを紹介する。
BSRBF-KANは、MNISTで平均97.55%、Fashion-MNISTで89.33%の精度で5回のトレーニングで安定している。
論文 参考訳(メタデータ) (2024-06-17T03:26:02Z) - NPEFF: Non-Negative Per-Example Fisher Factorization [52.44573961263344]
エンド・ツー・エンドの微分可能モデルに容易に適用可能な,NPEFFと呼ばれる新しい解釈可能性手法を提案する。
我々はNPEFFが言語モデルと視覚モデルの実験を通して解釈可能なチューニングを持つことを実証した。
論文 参考訳(メタデータ) (2023-10-07T02:02:45Z) - Graph-Regularized Manifold-Aware Conditional Wasserstein GAN for Brain
Functional Connectivity Generation [13.009230460620369]
SPD多様体上でのFCデータ生成のためのグラフ正規化条件付きWasserstein GAN(GR-SPD-GAN)を提案する。
GR-SPD-GANは、より現実的なfMRIベースのFCサンプルを生成する際に、最先端のGANよりも明らかに優れている。
論文 参考訳(メタデータ) (2022-12-10T14:51:44Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - Reciprocal Adversarial Learning via Characteristic Functions [12.961770002117142]
GAN(Generative Adversarial Nets)は、複雑な分散を伴うタスクに好まれるツールである。
特徴関数(CF)を用いて分布を時間ではなく時間的に比較する方法を示す。
次に、逆数が存在する場合の埋め込み領域とデータ領域の等価性を証明し、自動エンコーダ構造で自然にGANを開発する。
この効率的な構造は、単純なトレーニング戦略とともに2つのモジュールのみを使用して、双方向で鮮明な画像を生成する。
論文 参考訳(メタデータ) (2020-06-15T14:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。