論文の概要: Model Comparisons: XNet Outperforms KAN
- arxiv url: http://arxiv.org/abs/2410.02033v1
- Date: Wed, 02 Oct 2024 20:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 17:54:55.198973
- Title: Model Comparisons: XNet Outperforms KAN
- Title(参考訳): モデルの比較: XNet が Kan より優れている
- Authors: Xin Li, Zhihong Jeff Xia, Xiaotao Zheng,
- Abstract要約: XNetは複素数値コーシー積分式を用いる新しいアルゴリズムである。
XNetは、低次元空間と高次元空間の両方において、様々なタスクにおける速度と精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 3.9426000822656224
- License:
- Abstract: In the fields of computational mathematics and artificial intelligence, the need for precise data modeling is crucial, especially for predictive machine learning tasks. This paper explores further XNet, a novel algorithm that employs the complex-valued Cauchy integral formula, offering a superior network architecture that surpasses traditional Multi-Layer Perceptrons (MLPs) and Kolmogorov-Arnold Networks (KANs). XNet significant improves speed and accuracy across various tasks in both low and high-dimensional spaces, redefining the scope of data-driven model development and providing substantial improvements over established time series models like LSTMs.
- Abstract(参考訳): 計算数学と人工知能の分野では、特に予測機械学習タスクにおいて、正確なデータモデリングの必要性が不可欠である。
本稿では,従来のマルチ層パーセプトロン(MLP)やコルモゴロフ・アルノルドネットワーク(KAN)を上回る優れたネットワークアーキテクチャを提供する,複雑な値のコーシー積分式を用いた新しいアルゴリズムであるXNetについて検討する。
XNetは低次元空間と高次元空間の両方の様々なタスクにおける速度と精度を大幅に改善し、データ駆動型モデル開発の範囲を再定義し、LSTMのような確立された時系列モデルよりも大幅に改善した。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Improving the Real-Data Driven Network Evaluation Model for Digital Twin Networks [0.2499907423888049]
デジタルツインネットワーク(DTN)技術は,自律型ネットワークの基礎技術として期待されている。
DTNは、クローズドループシステムにおいて、リアルタイムに収集されたデータに基づいてネットワークを運用およびシステム化できるという利点がある。
DTNの使用を最適化するために、さまざまなAI研究と標準化作業が進行中である。
論文 参考訳(メタデータ) (2024-05-14T09:55:03Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Stochastic Configuration Machines for Industrial Artificial Intelligence [4.57421617811378]
産業人工知能(IAI)におけるコンフィグレーションネットワーク(SCN)の役割
本稿では、効率的なモデリングとデータサイズ削減を強調するために、SCMと呼ばれる新しいランダム化学習モデルを提案する。
いくつかのベンチマークデータセットと3つの産業応用に関する実験的研究が行われている。
論文 参考訳(メタデータ) (2023-08-25T05:52:41Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations [0.5185522256407782]
我々は、任意のグラフ構造化データに対応するために、よく知られた畳み込みニューラルネットワークを拡張するMagNETを提案する。
固体の力学における非線形有限要素シミュレーションのサロゲートモデリングにおけるMAgNETの予測能力を示す。
論文 参考訳(メタデータ) (2022-11-01T19:23:45Z) - DAMNETS: A Deep Autoregressive Model for Generating Markovian Network
Time Series [6.834250594353335]
ネットワーク時系列生成モデル(動的グラフとも呼ばれる)は疫学、生物学、経済学などの分野において大きな可能性を秘めている。
本稿では,ネットワーク時系列のスケーラブルな深層生成モデルであるDAMNETSを紹介する。
論文 参考訳(メタデータ) (2022-03-28T18:14:04Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Computation on Sparse Neural Networks: an Inspiration for Future
Hardware [20.131626638342706]
スパースニューラルネットワークの計算に関する研究の現状について述べる。
本稿では,重みパラメータの数とモデル構造に影響されるモデルの精度について論じる。
実際に複雑な問題に対して、重みが支配する領域において、大小のモデルを探索することはより有益であることを示す。
論文 参考訳(メタデータ) (2020-04-24T19:13:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。