論文の概要: rKAN: Rational Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2406.14495v1
- Date: Thu, 20 Jun 2024 16:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 12:33:17.542681
- Title: rKAN: Rational Kolmogorov-Arnold Networks
- Title(参考訳): rKAN:Rational Kolmogorov-Arnold Networks
- Authors: Alireza Afzal Aghaei,
- Abstract要約: コルモゴロフ・アルノルドネットワーク(KAN)の新たな基底関数としての有理関数の利用について検討する。
学習可能な基底関数としてPade近似と有理ヤコビ関数に基づく2つの異なるアプローチを提案し、有理観(rKAN)を確立する。
次に,様々な深層学習および物理インフォームドタスクにおけるrKANの性能を評価し,関数近似の実用性と有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of Kolmogorov-Arnold networks (KANs) marks a significant shift from traditional multi-layer perceptrons in deep learning. Initially, KANs employed B-spline curves as their primary basis function, but their inherent complexity posed implementation challenges. Consequently, researchers have explored alternative basis functions such as Wavelets, Polynomials, and Fractional functions. In this research, we explore the use of rational functions as a novel basis function for KANs. We propose two different approaches based on Pade approximation and rational Jacobi functions as trainable basis functions, establishing the rational KAN (rKAN). We then evaluate rKAN's performance in various deep learning and physics-informed tasks to demonstrate its practicality and effectiveness in function approximation.
- Abstract(参考訳): Kolmogorov-Arnoldネットワーク(KAN)の開発は、ディープラーニングにおける従来の多層パーセプトロンから大きく変化している。
当初、カンはB-スプライン曲線を基本関数として用いたが、その固有の複雑さは実装上の問題を引き起こした。
その結果、研究者はウェーブレット、ポリノミアル、フラクタル関数などの代替基底関数を探索した。
本研究では,感性のための新しい基礎関数としての有理関数の利用について検討する。
学習可能な基底関数としてPade近似と有理ヤコビ関数に基づく2つの異なるアプローチを提案し、有理カン(rKAN)を確立する。
次に,様々な深層学習および物理インフォームドタスクにおけるrKANの性能を評価し,関数近似の実用性と有効性を示す。
関連論文リスト
- Rethinking the Function of Neurons in KANs [1.223779595809275]
コルモゴロフ・アルノルドネットワーク(KAN)のニューロンは、コルモゴロフ・アルノルド表現定理によって動機付けられた単純な和を実行する。
本研究では,KANニューロンに対する代替多変量関数の同定の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-30T09:04:23Z) - fKAN: Fractional Kolmogorov-Arnold Networks with trainable Jacobi basis functions [0.0]
ニューラルネットワーク設計の最近の進歩は、KAN(Kolmogorov-Arnold Networks)の発展をもたらした。
本稿では,学習可能な適応型分数-直交ジャコビ関数を基本関数として組み込んだニューラルネットワークアーキテクチャを提案する。
その結果, 分数的ヤコビ関数をkansに組み込むことで, 様々な分野やアプリケーションにおけるトレーニング速度と性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-06-11T17:01:45Z) - Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation [0.0]
本稿では,Chebyshev Kolmogorov-Arnoldの定理に触発された新しいニューラルネットワークアーキテクチャであるChebyshev Kolmogorov-Arnold Networkについて述べる。
ネットワークのエッジ上でChebyshevによってパラメータ化された学習可能な関数を利用することで、Chebyshev Kansは関数近似タスクの柔軟性、効率、解釈性を向上させる。
論文 参考訳(メタデータ) (2024-05-12T07:55:43Z) - Approximation of RKHS Functionals by Neural Networks [30.42446856477086]
ニューラルネットワークを用いたHilbert空間(RKHS)を再現するカーネル上の関数の近似について検討する。
逆多重四元数、ガウス、ソボレフのカーネルによって誘導される場合の明示的な誤差境界を導出する。
ニューラルネットワークが回帰マップを正確に近似できることを示すため,機能回帰に本研究の成果を適用した。
論文 参考訳(メタデータ) (2024-03-18T18:58:23Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。