論文の概要: Free-RBF-KAN: Kolmogorov-Arnold Networks with Adaptive Radial Basis Functions for Efficient Function Learning
- arxiv url: http://arxiv.org/abs/2601.07760v2
- Date: Tue, 13 Jan 2026 18:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 14:06:39.285291
- Title: Free-RBF-KAN: Kolmogorov-Arnold Networks with Adaptive Radial Basis Functions for Efficient Function Learning
- Title(参考訳): Free-RBF-KAN:Kolmogorov-Arnold Networks with Adaptive Radial Basis Function for Efficient Function Learning (特集:情報ネットワーク)
- Authors: Shao-Ting Chiu, Siu Wun Cheung, Ulisses Braga-Neto, Chak Shing Lee, Rui Peng Li,
- Abstract要約: Kolmogorov-Arnold Networks (KANs) は複素非線形関数を効率的に近似する強いポテンシャルを示している。
元の Kan の定式化は B-スプライン基底関数に依存しており、デボアのアルゴリズムによる計算オーバーヘッドがかなり大きい。
この性能ギャップを埋めるために適応学習格子とトレーニング可能な滑らかさを組み込んだRBFベースのkanアーキテクチャであるFree-RBF-KANを提案する。
- 参考スコア(独自算出の注目度): 2.2851922041620587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov-Arnold Networks (KANs) have shown strong potential for efficiently approximating complex nonlinear functions. However, the original KAN formulation relies on B-spline basis functions, which incur substantial computational overhead due to De Boor's algorithm. To address this limitation, recent work has explored alternative basis functions such as radial basis functions (RBFs) that can improve computational efficiency and flexibility. Yet, standard RBF-KANs often sacrifice accuracy relative to the original KAN design. In this work, we propose Free-RBF-KAN, a RBF-based KAN architecture that incorporates adaptive learning grids and trainable smoothness to close this performance gap. Our method employs freely learnable RBF shapes that dynamically align grid representations with activation patterns, enabling expressive and adaptive function approximation. Additionally, we treat smoothness as a kernel parameter optimized jointly with network weights, without increasing computational complexity. We provide a general universality proof for RBF-KANs, which encompasses our Free-RBF-KAN formulation. Through a broad set of experiments, including multiscale function approximation, physics-informed machine learning, and PDE solution operator learning, Free-RBF-KAN achieves accuracy comparable to the original B-spline-based KAN while delivering faster training and inference. These results highlight Free-RBF-KAN as a compelling balance between computational efficiency and adaptive resolution, particularly for high-dimensional structured modeling tasks.
- Abstract(参考訳): Kolmogorov-Arnold Networks (KANs) は複素非線形関数を効率的に近似する強いポテンシャルを示している。
しかし、元の Kan の定式化は B-スプライン基底関数に依存しており、これはデボアのアルゴリズムによってかなりの計算オーバーヘッドを引き起こす。
この制限に対処するため、最近の研究は、計算効率と柔軟性を向上させるための放射基底関数(RBF)のような代替基底関数について検討している。
しかし、標準的なRBF-KANは元のKAN設計と比較して精度を犠牲にすることが多い。
本研究では,適応学習グリッドとトレーニング可能な滑らかさを組み込んだRBFベースのKanアーキテクチャであるFree-RBF-KANを提案する。
提案手法では,自由学習可能なRBF形状を用いて,グリッド表現とアクティベーションパターンを動的にアライメントし,表現的かつ適応的な関数近似を可能にする。
さらに、スムーズさを計算複雑性を増大させることなく、ネットワーク重みと協調的に最適化されたカーネルパラメータとして扱う。
我々は、自由RBF-KANの定式化を含むRBF-KANの普遍性証明を提供する。
マルチスケール関数近似、物理インフォームド機械学習、PDEソリューション演算子学習を含む幅広い実験を通じて、Free-RBF-KANは、より高速なトレーニングと推論を提供しながら、オリジナルのB-スプラインベースのkanに匹敵する精度を達成する。
これらの結果は、特に高次元構造モデリングタスクにおいて、計算効率と適応分解能の強いバランスとして、Free-RBF-KANを強調している。
関連論文リスト
- Solving Nonlinear PDEs with Sparse Radial Basis Function Networks [0.0]
本稿では,スパルスラジアル基底関数(RBF)ネットワークを用いた非線形PDEの解法を提案する。
この研究は、従来のRBFコロケーション法における長年にわたる課題と、物理インフォームドニューラルネットワーク(PINN)とガウス過程(GP)アプローチの限界によって動機付けられている。
論文 参考訳(メタデータ) (2025-05-12T17:12:53Z) - Learning Expressive Random Feature Models via Parametrized Activations [13.5257960837278]
学習可能活性化関数(RFLAF)を用いたランダム特徴モデルを提案する。
RFLAFは、アクティベーション関数をランダム特徴フレームワーク内の基底関数の重み付け和としてパラメータ化する。
学習可能なアクティベーション成分を持つRAFFが表される関数空間を大きく広げていることを示す。
論文 参考訳(メタデータ) (2024-11-29T04:38:12Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - A Robust Asymmetric Kernel Function for Bayesian Optimization, with
Application to Image Defect Detection in Manufacturing Systems [2.4278445972594525]
我々は、ロバストなカーネル関数、非対称な弾性ネットラジアル基底関数(AEN-RBF)を提案する。
理論的には、AEN-RBFは穏やかな条件下でより小さな平均2乗予測誤差を実現できることを示す。
また、AEN-RBFカーネル関数は、外れ値に対する感度が低いことも示している。
論文 参考訳(メタデータ) (2021-09-22T17:59:05Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。