論文の概要: Variational Kolmogorov-Arnold Network
- arxiv url: http://arxiv.org/abs/2507.02466v1
- Date: Thu, 03 Jul 2025 09:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.07227
- Title: Variational Kolmogorov-Arnold Network
- Title(参考訳): 変分コルモゴロフ・アルノルドネットワーク
- Authors: Francesco Alesiani, Henrik Christiansen, Federico Errica,
- Abstract要約: Kolmogorov Arnold Networks (KAN)は、機械学習モデルを構築するための新興アーキテクチャである。
カンはコルモゴロフ=アルノルト理論の理論的基礎と拡張に基づいている。
- 参考スコア(独自算出の注目度): 10.822246003257563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kolmogorov Arnold Networks (KANs) are an emerging architecture for building machine learning models. KANs are based on the theoretical foundation of the Kolmogorov-Arnold Theorem and its expansions, which provide an exact representation of a multi-variate continuous bounded function as the composition of a limited number of univariate continuous functions. While such theoretical results are powerful, their use as a representation learning alternative to a multi-layer perceptron (MLP) hinges on the ad-hoc choice of the number of bases modeling each of the univariate functions. In this work, we show how to address this problem by adaptively learning a potentially infinite number of bases for each univariate function during training. We therefore model the problem as a variational inference optimization problem. Our proposal, called InfinityKAN, which uses backpropagation, extends the potential applicability of KANs by treating an important hyperparameter as part of the learning process.
- Abstract(参考訳): Kolmogorov Arnold Networks (KAN)は、機械学習モデルを構築するための新興アーキテクチャである。
カンはコルモゴロフ・アルノルト定理とその拡張の理論的基礎に基づいており、有限個の単変数連続函数の構成として多変量連続有界函数の正確な表現を提供する。
このような理論的な結果は強力であるが、多層パーセプトロン(MLP)の代わりに表現学習としての使用は、各単変数関数をモデル化する基底数のアドホックな選択に依存している。
本研究では,学習中の各単変数関数に対する潜在的無限個の基底を適応的に学習することにより,この問題に対処する方法を示す。
したがって、この問題を変分推論最適化問題としてモデル化する。
バックプロパゲーションを用いたInfinityKANという提案は,学習プロセスの一部として重要なハイパーパラメータを扱い,kansの適用可能性を高める。
関連論文リスト
- asKAN: Active Subspace embedded Kolmogorov-Arnold Network [2.408451825799214]
Kolmogorov-Arnold Network (KAN)は、小規模AI+Scienceアプリケーションのための有望なニューラルネットワークアーキテクチャとして登場した。
本研究では、コルモゴロフ・アルノルドの定理のレンズを通して、この非フレキシビリティを研究する。
本稿では,Kanの関数表現をアクティブな部分空間方法論と相乗化する階層的フレームワークである,アクティブな部分空間埋め込みkanを提案する。
論文 参考訳(メタデータ) (2025-04-07T01:43:13Z) - $p$-Adic Polynomial Regression as Alternative to Neural Network for Approximating $p$-Adic Functions of Many Variables [55.2480439325792]
任意の精度で連続関数を近似できる回帰モデルを構築している。
提案モデルは、ニューラルネットワークアーキテクチャに基づく$p$-adicモデルの簡単な代替と見なすことができる。
論文 参考訳(メタデータ) (2025-03-30T15:42:08Z) - Geometric Kolmogorov-Arnold Superposition Theorem [9.373581450684233]
コルモゴロフ・アルノルドネットワーク(KAN)は、コルモゴロフ・アルノルド理論(KAT)を実装するための訓練可能なモデルとして導入された。
O(n)$, $O(1,n)$, $S_n$, general $GL$ など,様々な群作用に対する等式と不変性を取り入れたkanの新たな拡張を提案する。
論文 参考訳(メタデータ) (2025-02-23T17:47:33Z) - Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation [0.0]
本稿では,Chebyshev Kolmogorov-Arnoldの定理に触発された新しいニューラルネットワークアーキテクチャであるChebyshev Kolmogorov-Arnold Networkについて述べる。
ネットワークのエッジ上でChebyshevによってパラメータ化された学習可能な関数を利用することで、Chebyshev Kansは関数近似タスクの柔軟性、効率、解釈性を向上させる。
論文 参考訳(メタデータ) (2024-05-12T07:55:43Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - A Pareto-optimal compositional energy-based model for sampling and
optimization of protein sequences [55.25331349436895]
深層生成モデルは、生命科学における逆問題に対する一般的な機械学習ベースのアプローチとして登場した。
これらの問題は、データ分布の学習に加えて、興味のある複数の特性を満たす新しい設計をサンプリングする必要があることが多い。
論文 参考訳(メタデータ) (2022-10-19T19:04:45Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。