論文の概要: Enhancing Neural Function Approximation: The XNet Outperforming KAN
- arxiv url: http://arxiv.org/abs/2501.18959v1
- Date: Fri, 31 Jan 2025 08:33:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:03:09.598886
- Title: Enhancing Neural Function Approximation: The XNet Outperforming KAN
- Title(参考訳): ニューラルファンクション近似の強化:XNetパフォーマンスカン
- Authors: Xin Li, Xiaotao Zheng, Zhihong Xia,
- Abstract要約: XNetは、Couchy積分ベースのアクティベーション関数を高次関数に利用する、単層ニューラルネットワークアーキテクチャである。
我々は、XNetで使用されるコーシー活性化関数が任意の順序収束を達成することを示す。
結果は、科学計算とAIアプリケーションの両方において、XNetを高効率なアーキテクチャとして確立する。
- 参考スコア(独自算出の注目度): 3.9426000822656224
- License:
- Abstract: XNet is a single-layer neural network architecture that leverages Cauchy integral-based activation functions for high-order function approximation. Through theoretical analysis, we show that the Cauchy activation functions used in XNet can achieve arbitrary-order polynomial convergence, fundamentally outperforming traditional MLPs and Kolmogorov-Arnold Networks (KANs) that rely on increased depth or B-spline activations. Our extensive experiments on function approximation, PDE solving, and reinforcement learning demonstrate XNet's superior performance - reducing approximation error by up to 50000 times and accelerating training by up to 10 times compared to existing approaches. These results establish XNet as a highly efficient architecture for both scientific computing and AI applications.
- Abstract(参考訳): XNetは、高次関数近似のためにコーシー積分ベースのアクティベーション関数を利用する、単層ニューラルネットワークアーキテクチャである。
理論的解析により、XNetで使用されるコーシー活性化関数は任意の順序の多項式収束を達成できることが示され、従来型のMLPとB-スプライン活性化に依存するコルモゴロフ・アルノルドネットワーク(KAN)を根本的に上回っている。
我々の関数近似、PDE解決、強化学習に関する広範な実験は、XNetの優れた性能を示し、近似誤差を最大50000倍に減らし、既存のアプローチと比べて最大10倍のトレーニングを加速させる。
これらの結果は、科学計算とAIアプリケーションの両方において、XNetを高効率なアーキテクチャとして確立している。
関連論文リスト
- Cauchy activation function and XNet [3.9426000822656224]
我々はCauchy Activation Functionと呼ばれる新しいアクティベーション関数を開発した。
この関数は複素解析においてコーシー積分定理から導かれ、特に高精度を必要とする問題に向いている。
このイノベーションは、私たちが(Comple)XNet、あるいは単にXNetと呼ぶ、新しいタイプのニューラルネットワークを生み出しました。
論文 参考訳(メタデータ) (2024-09-28T03:25:33Z) - Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation [0.0]
本稿では,Chebyshev Kolmogorov-Arnoldの定理に触発された新しいニューラルネットワークアーキテクチャであるChebyshev Kolmogorov-Arnold Networkについて述べる。
ネットワークのエッジ上でChebyshevによってパラメータ化された学習可能な関数を利用することで、Chebyshev Kansは関数近似タスクの柔軟性、効率、解釈性を向上させる。
論文 参考訳(メタデータ) (2024-05-12T07:55:43Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - KXNet: A Model-Driven Deep Neural Network for Blind Super-Resolution [57.882146858582175]
我々は、ブラインドSISRのためのモデル駆動型ディープニューラルネットワークKXNetを提案する。
提案されたKXNetは、SISRタスクの根底にある固有の物理的メカニズムと完全に統合されている。
合成データおよび実データを用いた実験は,提案手法の精度と汎用性を良好に証明する。
論文 参考訳(メタデータ) (2022-09-21T12:22:50Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Reachability analysis of neural networks using mixed monotonicity [0.0]
本稿では,入力不確実性の条件下でのフィードフォワードニューラルネットワークの出力集合の過度近似を計算するための新しい到達可能性解析ツールを提案する。
提案手法は、力学系の到達可能性解析のための既存の混合単調性法をニューラルネットワークに適用する。
論文 参考訳(メタデータ) (2021-11-15T11:35:18Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - ChebNet: Efficient and Stable Constructions of Deep Neural Networks with
Rectified Power Units via Chebyshev Approximations [6.0889567811100385]
本稿では,Chebyshev近似に基づくRePUディープニューラルネットワークの構築方法を提案する。
ChebNetsによるスムーズな関数の近似は、電力系列アプローチを用いた深部RePUネットの近似よりも悪くはない。
論文 参考訳(メタデータ) (2019-11-07T06:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。