論文の概要: BSRBF-KAN: A combination of B-splines and Radial Basis Functions in Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2406.11173v5
- Date: Wed, 30 Oct 2024 11:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:23:22.613874
- Title: BSRBF-KAN: A combination of B-splines and Radial Basis Functions in Kolmogorov-Arnold Networks
- Title(参考訳): BSRBF-KAN:コルモゴロフ・アルノルドネットワークにおけるB-スプラインと放射基底関数の組み合わせ
- Authors: Hoang-Thang Ta,
- Abstract要約: 本稿では,B-splines と radial basis function (RBF) を組み合わせたコルモゴロフ・アーノルドネットワーク (KAN) のBSRBF-KANを紹介する。
BSRBF-KANは、MNISTで平均97.55%、Fashion-MNISTで89.33%の精度で5回のトレーニングで安定している。
- 参考スコア(独自算出の注目度): 3.844398528249339
- License:
- Abstract: In this paper, we introduce BSRBF-KAN, a Kolmogorov Arnold Network (KAN) that combines B-splines and radial basis functions (RBFs) to fit input vectors during data training. We perform experiments with BSRBF-KAN, multi-layer perception (MLP), and other popular KANs, including EfficientKAN, FastKAN, FasterKAN, and GottliebKAN over the MNIST and Fashion-MNIST datasets. BSRBF-KAN shows stability in 5 training runs with a competitive average accuracy of 97.55% on MNIST and 89.33% on Fashion-MNIST and obtains convergence better than other networks. We expect BSRBF-KAN to open many combinations of mathematical functions to design KANs. Our repo is publicly available at: https://github.com/hoangthangta/BSRBF_KAN.
- Abstract(参考訳): 本稿では,B-splines と radial basis function (RBF) を組み合わせたコルモゴロフ・アーノルド・ネットワーク (KAN) のBSRBF-KANについて述べる。
我々は、MNISTおよびFashion-MNISTデータセット上で、BSRBF-KAN、MLP、およびEfficientKAN、FastKAN、FasterKAN、GottliebKANなどの一般的なKANを用いて実験を行った。
BSRBF-KANは、MNISTで97.55%、Fashion-MNISTで89.33%の競争平均精度で5回のトレーニングの安定性を示し、他のネットワークよりもコンバージェンスを得る。
我々は,BSRBF-KANが数理関数の組み合わせを多数開き,kanを設計することを期待している。
私たちのリポジトリは、https://github.com/hoangthangta/BSRBF_KANで公開されています。
関連論文リスト
- KANICE: Kolmogorov-Arnold Networks with Interactive Convolutional Elements [1.663204995903499]
コンボリューショナルニューラルネットワーク(CNN)とコルモゴロフ・アルノルドネットワーク(KAN)の原理を組み合わせた,新しいニューラルネットワークアーキテクチャであるKanICEを紹介する。
KanICEはInteractive Convolutional Blocks (ICB) と Kan の線形層を CNN フレームワークに統合する。
MNIST, Fashion-MNIST, EMNIST, SVHNの4つのデータセットを用いて,KanICEの評価を行った。
論文 参考訳(メタデータ) (2024-10-22T16:50:34Z) - Evaluating Federated Kolmogorov-Arnold Networks on Non-IID Data [0.0]
Kolmogorov-Arnold Networks (F-KANs) はすでに提案されているが、その評価は初期段階にある。
我々は,MNIST分類タスクにおいて,KansとMLP(Multi- Layer Perceptrons)の比較を行い,100のクライアントを持つ非IIDパーティションを用いた100ラウンドのフェデレーション学習のパラメータについて比較した。
論文 参考訳(メタデータ) (2024-10-11T16:30:04Z) - FC-KAN: Function Combinations in Kolmogorov-Arnold Networks [48.39771439237495]
FC-KANはKAN(Kolmogorov-Arnold Network)の一種で、低次元データ上で一般的な数学的関数を利用する。
FC-KANとマルチ層パーセプトロンネットワーク(MLP)と,BSRBF-KAN,EfficientKAN,FastKAN,FasterKANなどの既存のKANを比較した。
B-スプラインからの出力とガウス差分(DoG)を2次関数の形で組み合わせたFC-KANの変種は、5つの独立トレーニングランの平均で他のモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-09-03T10:16:43Z) - Boundary-aware Decoupled Flow Networks for Realistic Extreme Rescaling [49.215957313126324]
Invertible rescaling Network (IRN) やgenerative adversarial Network (GAN) などを含む最近の生成手法は、画像再スケーリングにおいて例外的な性能を示した。
しかし、IRNベースの手法は過度に滑らかな結果を生成する傾向にあり、一方、GANベースの手法は偽の細部を容易に生成する。
本稿では,現実的かつ視覚的に満足な結果を生成するために,境界対応デカップリングフローネットワーク(BDFlow)を提案する。
論文 参考訳(メタデータ) (2024-05-05T14:05:33Z) - REST: Enhancing Group Robustness in DNNs through Reweighted Sparse
Training [49.581884130880944]
ディープニューラルネットワーク(DNN)は様々な領域で有効であることが証明されている。
しかし、彼らは推論中に一部の少数派でうまく行動するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-12-05T16:27:54Z) - BESS: Balanced Entity Sampling and Sharing for Large-Scale Knowledge
Graph Completion [1.083504248254529]
我々は、OGB-LSC@NeurIPS 2022のWikiKG90Mv2トラックに受賞申請を提示する。
このタスクは、90M+ノードと600M+エッジからなる大規模知識グラフWikiKG90Mv2上のリンク予測である。
論文 参考訳(メタデータ) (2022-11-22T13:51:33Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Fusion Recurrent Neural Network [88.5550074808201]
我々は、新しい簡潔かつ有望なRNN-Fusion Recurrent Neural Network (Fusion RNN)を提案する。
Fusion RNNはFusionモジュールとTransportモジュールで構成されている。
本研究では,Fusion RNNのシーケンス特徴抽出能力を評価するために,シーケンスデータ,到着推定時刻(ETA)の代表的なデータマイニングタスクを選択し,Fusion RNNに基づく新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-06-07T07:39:49Z) - Compromise-free Bayesian neural networks [0.0]
我々は,全(非ガウスおよびマルチモーダル)ネットワークを後方で数値的にサンプリングし,ベイズ証拠の数値的な推定値を得る。
ReLU$アクティベーション関数を持つネットワークは、$tanh$関数を持つネットワークよりも一貫して高いエビデンスを持つ。
論文 参考訳(メタデータ) (2020-04-25T19:12:56Z) - Brainstorming Generative Adversarial Networks (BGANs): Towards
Multi-Agent Generative Models with Distributed Private Datasets [70.62568022925971]
生成的敵ネットワーク(GAN)は、データ空間を適切に表現する大規模なデータセットによって供給されなければならない。
多くのシナリオでは、利用可能なデータセットは制限され、複数のエージェントに分散する可能性がある。
本稿では,BGAN(Breepstorming GAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-02T02:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。