論文の概要: FC-KAN: Function Combinations in Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2409.01763v1
- Date: Tue, 3 Sep 2024 10:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 02:01:57.484115
- Title: FC-KAN: Function Combinations in Kolmogorov-Arnold Networks
- Title(参考訳): FC-KAN:Kolmogorov-Arnoldネットワークにおける機能結合
- Authors: Hoang-Thang Ta, Duy-Quy Thai, Abu Bakar Siddiqur Rahman, Grigori Sidorov, Alexander Gelbukh,
- Abstract要約: FC-KANはKAN(Kolmogorov-Arnold Network)の一種で、低次元データ上で一般的な数学的関数を利用する。
FC-KANとマルチ層パーセプトロンネットワーク(MLP)と,BSRBF-KAN,EfficientKAN,FastKAN,FasterKANなどの既存のKANを比較した。
B-スプラインからの出力とガウス差分(DoG)を2次関数の形で組み合わせたFC-KANの変種は、5つの独立トレーニングランの平均で他のモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 48.39771439237495
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we introduce FC-KAN, a Kolmogorov-Arnold Network (KAN) that leverages combinations of popular mathematical functions such as B-splines, wavelets, and radial basis functions on low-dimensional data through element-wise operations. We explore several methods for combining the outputs of these functions, including sum, element-wise product, the addition of sum and element-wise product, quadratic function representation, and concatenation. In our experiments, we compare FC-KAN with multi-layer perceptron network (MLP) and other existing KANs, such as BSRBF-KAN, EfficientKAN, FastKAN, and FasterKAN, on the MNIST and Fashion-MNIST datasets. A variant of FC-KAN, which uses a combination of outputs from B-splines and Difference of Gaussians (DoG) in the form of a quadratic function, outperformed all other models on the average of 5 independent training runs. We expect that FC-KAN can leverage function combinations to design future KANs. Our repository is publicly available at: https://github.com/hoangthangta/FC_KAN.
- Abstract(参考訳): 本稿では,B-スプライン,ウェーブレット,ラジアル基底関数といった一般的な数学的関数を,要素演算による低次元データ上で組み合わせた,コルモゴロフ・アルノルドネットワーク(KAN)について紹介する。
これらの関数の出力を和、要素積、和と要素積の追加、二次関数表現、連結などを組み合わせるためのいくつかの方法を検討する。
実験では,MNISTデータセットとFashion-MNISTデータセットを用いて,FC-KANとBSRBF-KAN,EfficientKAN,FastKAN,FasterKANなどの既存のKANとを比較した。
B-スプラインからの出力とガウス差分(DoG)を2次関数の形で組み合わせたFC-KANの変種は、5つの独立したトレーニングランの平均で他のモデルよりも優れていた。
我々は,FC-KANが機能の組み合わせを利用して将来のkanを設計できることを期待している。
私たちのリポジトリは、https://github.com/hoangthangta/FC_KAN.comで公開されています。
関連論文リスト
- RPN: Reconciled Polynomial Network Towards Unifying PGMs, Kernel SVMs, MLP and KAN [8.168523242105763]
深層関数学習のためのReconciled Polynomial Network (RPN) という新しいディープモデルを導入する。
RPNは非常に一般的なアーキテクチャを持ち、様々な複雑さ、能力、完全性のレベルを持つモデルを構築するのに使用できる。
RPNは、異なるベースモデルをひとつの標準表現に統一するバックボーンとしても機能する。
論文 参考訳(メタデータ) (2024-07-05T19:00:18Z) - BSRBF-KAN: A combination of B-splines and Radial Basis Functions in Kolmogorov-Arnold Networks [3.844398528249339]
本稿では,B-splines と radial basis function (RBF) を組み合わせたコルモゴロフ・アーノルドネットワーク (KAN) のBSRBF-KANを紹介する。
BSRBF-KANは、MNISTで平均97.55%、Fashion-MNISTで89.33%の精度で5回のトレーニングで安定している。
論文 参考訳(メタデータ) (2024-06-17T03:26:02Z) - Exploring the Potential of Polynomial Basis Functions in Kolmogorov-Arnold Networks: A Comparative Study of Different Groups of Polynomials [0.0]
本稿では,ゴットリーブモゴロフネットワーク(KAN)モデルにおける18の異なる特徴とその潜在的な応用について述べる。
本研究は,手書き桁分類などの複雑なタスクに対するkanモデルにおける基本関数としての theseDistincts の適合性を検討することを目的とする。
総合的精度,Kappa,F1スコアを含むkanモデルの性能指標を評価し,比較した。
論文 参考訳(メタデータ) (2024-05-30T20:40:16Z) - NPEFF: Non-Negative Per-Example Fisher Factorization [52.44573961263344]
エンド・ツー・エンドの微分可能モデルに容易に適用可能な,NPEFFと呼ばれる新しい解釈可能性手法を提案する。
我々はNPEFFが言語モデルと視覚モデルの実験を通して解釈可能なチューニングを持つことを実証した。
論文 参考訳(メタデータ) (2023-10-07T02:02:45Z) - Graph-Regularized Manifold-Aware Conditional Wasserstein GAN for Brain
Functional Connectivity Generation [13.009230460620369]
SPD多様体上でのFCデータ生成のためのグラフ正規化条件付きWasserstein GAN(GR-SPD-GAN)を提案する。
GR-SPD-GANは、より現実的なfMRIベースのFCサンプルを生成する際に、最先端のGANよりも明らかに優れている。
論文 参考訳(メタデータ) (2022-12-10T14:51:44Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - GFlowNet Foundations [66.69854262276391]
Generative Flow Networks (GFlowNets) は、多様な候補をアクティブな学習コンテキストでサンプリングする方法として導入された。
GFlowNetのさらなる理論的性質について述べる。
論文 参考訳(メタデータ) (2021-11-17T17:59:54Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - Reciprocal Adversarial Learning via Characteristic Functions [12.961770002117142]
GAN(Generative Adversarial Nets)は、複雑な分散を伴うタスクに好まれるツールである。
特徴関数(CF)を用いて分布を時間ではなく時間的に比較する方法を示す。
次に、逆数が存在する場合の埋め込み領域とデータ領域の等価性を証明し、自動エンコーダ構造で自然にGANを開発する。
この効率的な構造は、単純なトレーニング戦略とともに2つのモジュールのみを使用して、双方向で鮮明な画像を生成する。
論文 参考訳(メタデータ) (2020-06-15T14:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。