論文の概要: Model Comparisons: XNet Outperforms KAN
- arxiv url: http://arxiv.org/abs/2410.02033v1
- Date: Wed, 2 Oct 2024 20:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 09:25:11.522722
- Title: Model Comparisons: XNet Outperforms KAN
- Title(参考訳): モデルの比較: XNet が Kan より優れている
- Authors: Xin Li, Zhihong Jeff Xia, Xiaotao Zheng,
- Abstract要約: XNetは複素数値コーシー積分式を用いる新しいアルゴリズムである。
XNetは、低次元空間と高次元空間の両方において、様々なタスクにおける速度と精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 3.9426000822656224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the fields of computational mathematics and artificial intelligence, the need for precise data modeling is crucial, especially for predictive machine learning tasks. This paper explores further XNet, a novel algorithm that employs the complex-valued Cauchy integral formula, offering a superior network architecture that surpasses traditional Multi-Layer Perceptrons (MLPs) and Kolmogorov-Arnold Networks (KANs). XNet significant improves speed and accuracy across various tasks in both low and high-dimensional spaces, redefining the scope of data-driven model development and providing substantial improvements over established time series models like LSTMs.
- Abstract(参考訳): 計算数学と人工知能の分野では、特に予測機械学習タスクにおいて、正確なデータモデリングの必要性が不可欠である。
本稿では,従来のマルチ層パーセプトロン(MLP)やコルモゴロフ・アルノルドネットワーク(KAN)を上回る優れたネットワークアーキテクチャを提供する,複雑な値のコーシー積分式を用いた新しいアルゴリズムであるXNetについて検討する。
XNetは低次元空間と高次元空間の両方の様々なタスクにおける速度と精度を大幅に改善し、データ駆動型モデル開発の範囲を再定義し、LSTMのような確立された時系列モデルよりも大幅に改善した。
関連論文リスト
- DenseGNN: universal and scalable deeper graph neural networks for high-performance property prediction in crystals and molecules [4.648990939177395]
本稿では,Dense Connectivity Network (DCN), Hierarchical Node-Edge-Graph Residual Networks (HRN), Local Structure Orders Embedding (LOPE)を活用するDenseGNNを紹介する。
DenseGNNは、JARVIS-DFT、Material Project、QM9などのデータセット上での最先端のパフォーマンスを実現し、GIN、Schnet、Hamnetといったモデルのパフォーマンスを改善している。
論文 参考訳(メタデータ) (2025-01-05T13:41:28Z) - A Multi-Fidelity Graph U-Net Model for Accelerated Physics Simulations [1.2430809884830318]
本稿では,GNNモデルの性能向上のための多元性手法の利点を生かした,新しいGNNアーキテクチャであるMulti-Fidelity U-Netを提案する。
提案手法は精度とデータ要求において有意に優れた性能を示すことを示す。
また,提案アーキテクチャの高速バージョンであるMulti-Fidelity U-Net Liteを35%高速化し,精度を2~5%削減した。
論文 参考訳(メタデータ) (2024-12-19T20:09:38Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Stochastic Configuration Machines for Industrial Artificial Intelligence [4.57421617811378]
産業人工知能(IAI)におけるコンフィグレーションネットワーク(SCN)の役割
本稿では、効率的なモデリングとデータサイズ削減を強調するために、SCMと呼ばれる新しいランダム化学習モデルを提案する。
いくつかのベンチマークデータセットと3つの産業応用に関する実験的研究が行われている。
論文 参考訳(メタデータ) (2023-08-25T05:52:41Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations [0.5185522256407782]
我々は、任意のグラフ構造化データに対応するために、よく知られた畳み込みニューラルネットワークを拡張するMagNETを提案する。
固体の力学における非線形有限要素シミュレーションのサロゲートモデリングにおけるMAgNETの予測能力を示す。
論文 参考訳(メタデータ) (2022-11-01T19:23:45Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Computation on Sparse Neural Networks: an Inspiration for Future
Hardware [20.131626638342706]
スパースニューラルネットワークの計算に関する研究の現状について述べる。
本稿では,重みパラメータの数とモデル構造に影響されるモデルの精度について論じる。
実際に複雑な問題に対して、重みが支配する領域において、大小のモデルを探索することはより有益であることを示す。
論文 参考訳(メタデータ) (2020-04-24T19:13:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。