論文の概要: Kolmogorov Arnold Networks and Multi-Layer Perceptrons: A Paradigm Shift in Neural Modelling
- arxiv url: http://arxiv.org/abs/2601.10563v1
- Date: Thu, 15 Jan 2026 16:26:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.22478
- Title: Kolmogorov Arnold Networks and Multi-Layer Perceptrons: A Paradigm Shift in Neural Modelling
- Title(参考訳): Kolmogorov Arnold Networks と Multi-Layer Perceptrons: ニューラルモデリングにおけるパラダイムシフト
- Authors: Aradhya Gaonkar, Nihal Jain, Vignesh Chougule, Nikhil Deshpande, Sneha Varur, Channabasappa Muttal,
- Abstract要約: Kolmogorov-Arnold Networks(KAN)とMulti-Layer Perceptrons(MLP)の総合的比較分析を行った。
Kansはスプラインベースのアクティベーション機能とグリッドベースの構造を利用し、従来のニューラルネットワークフレームワークと比較して変革的なアプローチを提供する。
本研究は,先進的なインテリジェントシステムにおけるkansの変換能力について述べる。
- 参考スコア(独自算出の注目度): 1.6998720690708842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The research undertakes a comprehensive comparative analysis of Kolmogorov-Arnold Networks (KAN) and Multi-Layer Perceptrons (MLP), highlighting their effectiveness in solving essential computational challenges like nonlinear function approximation, time-series prediction, and multivariate classification. Rooted in Kolmogorov's representation theorem, KANs utilize adaptive spline-based activation functions and grid-based structures, providing a transformative approach compared to traditional neural network frameworks. Utilizing a variety of datasets spanning mathematical function estimation (quadratic and cubic) to practical uses like predicting daily temperatures and categorizing wines, the proposed research thoroughly assesses model performance via accuracy measures like Mean Squared Error (MSE) and computational expense assessed through Floating Point Operations (FLOPs). The results indicate that KANs reliably exceed MLPs in every benchmark, attaining higher predictive accuracy with significantly reduced computational costs. Such an outcome highlights their ability to maintain a balance between computational efficiency and accuracy, rendering them especially beneficial in resource-limited and real-time operational environments. By elucidating the architectural and functional distinctions between KANs and MLPs, the paper provides a systematic framework for selecting the most suitable neural architectures for specific tasks. Furthermore, the proposed study highlights the transformative capabilities of KANs in progressing intelligent systems, influencing their use in situations that require both interpretability and computational efficiency.
- Abstract(参考訳): この研究は、Kolmogorov-Arnold Networks (KAN) とMulti-Layer Perceptrons (MLP) の総合的な比較分析を行い、非線形関数近似、時系列予測、多変量分類などの基本的な計算課題を解決する上での有効性を強調した。
Kolmogorovの表現定理に則って、kansは適応スプラインベースのアクティベーション関数とグリッドベースの構造を利用し、従来のニューラルネットワークフレームワークと比較して変換的なアプローチを提供する。
数理関数推定(四角形と立方形)にまたがる様々なデータセットを、日々の温度予測やワインの分類などの実用に利用し、提案研究では、平均二乗誤差(MSE)や浮動小数点演算(FLOP)による計算コストなどの精度測定を通じて、モデル性能を徹底的に評価する。
その結果, カンは全てのベンチマークにおいてMLPを確実に上回り, 計算コストを大幅に削減し, 予測精度が向上した。
このような結果は、計算効率と精度のバランスを維持する能力を強調しており、特にリソース制限とリアルタイム運用環境で有益である。
本論文は,kanとMLPのアーキテクチャ的および機能的区別を解明することにより,特定のタスクに最適なニューラルネットワークを選択するための体系的枠組みを提供する。
さらに,提案研究は,知的システムの進化におけるカンの変換能力を強調し,解釈可能性と計算効率の両方を必要とする状況におけるカンの使用に影響を及ぼすものである。
関連論文リスト
- Scientific Machine Learning with Kolmogorov-Arnold Networks [0.0]
科学機械学習の分野は、データエンコーディングにコルモゴロフ・アルノルドネットワーク(KAN)をますます採用している。
カンは、複雑な非線形相互作用のより効率的なモデリングを可能にする、解釈可能性と柔軟性の強化による問題に対処する。
本稿では,データ駆動学習(i)物理インフォームドモデリング(ii)深層学習(iii)の3つの観点から,KAモデルにおける最近の進歩を分類する。
論文 参考訳(メタデータ) (2025-07-30T01:26:44Z) - Learning Massive-scale Partial Correlation Networks in Clinical Multi-omics Studies with HP-ACCORD [9.759451770552284]
マルチオミクスデータ解析のための新しい擬似類似性に基づくグラフィカル・モデル・フレームワークを提案する。
提案した推定器は,高次元仮定下での様々な指標における推定と選択の整合性を維持する。
最大100万変数のシミュレーションデータを用いて,本フレームワークの高性能コンピューティング実装を検証した。
論文 参考訳(メタデータ) (2024-12-16T08:38:02Z) - A Survey on Kolmogorov-Arnold Network [0.0]
Kolmogorov-Arnold Networks(KAN)の理論的基礎、進化、応用、そして将来の可能性
Kanは、固定活性化関数の代わりに学習可能なスプラインパラメータ化関数を使用することで、従来のニューラルネットワークと区別する。
本稿では,最近のニューラルアーキテクチャにおけるkanの役割を強調し,データ集約型アプリケーションにおける計算効率,解釈可能性,拡張性を改善するための今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-11-09T05:54:17Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Implicit Generative Prior for Bayesian Neural Networks [8.013264410621357]
複雑なデータ構造のための新しいニューラルネットワーク型経験ベイズ(NA-EB)フレームワークを提案する。
NA-EBフレームワークは変分推論と勾配上昇アルゴリズムを組み合わせたものである。
各種タスクの広範囲な評価を通じて,本フレームワークの実践的応用を実証する。
論文 参考訳(メタデータ) (2024-04-27T21:00:38Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。