論文の概要: SigKAN: Signature-Weighted Kolmogorov-Arnold Networks for Time Series
- arxiv url: http://arxiv.org/abs/2406.17890v2
- Date: Mon, 09 Dec 2024 16:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:48:25.273439
- Title: SigKAN: Signature-Weighted Kolmogorov-Arnold Networks for Time Series
- Title(参考訳): SigKAN: 時系列用シグナチャ重み付きコルモゴロフ・アルノルドネットワーク
- Authors: Hugo Inzirillo, Remi Genet,
- Abstract要約: 学習可能な経路シグネチャとコルモゴロフ・アルノルドネットワーク(KAN)を用いた多変量関数近似の新たな手法を提案する。
学習可能な経路シグネチャを用いて、kansが取得した値を重み付けすることで、これらのネットワークの学習能力を向上し、パスの重要な幾何学的特徴を捉える。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We propose a novel approach that enhances multivariate function approximation using learnable path signatures and Kolmogorov-Arnold networks (KANs). We enhance the learning capabilities of these networks by weighting the values obtained by KANs using learnable path signatures, which capture important geometric features of paths. This combination allows for a more comprehensive and flexible representation of sequential and temporal data. We demonstrate through studies that our SigKANs with learnable path signatures perform better than conventional methods across a range of function approximation challenges. By leveraging path signatures in neural networks, this method offers intriguing opportunities to enhance performance in time series analysis and time series forecasting, among other fields.
- Abstract(参考訳): 本稿では,学習可能な経路シグネチャとコルモゴロフ・アルノルドネットワーク(KAN)を用いた多変量関数近似法を提案する。
学習可能な経路シグネチャを用いて、kansが取得した値を重み付けすることで、これらのネットワークの学習能力を向上し、パスの重要な幾何学的特徴を捉える。
この組み合わせにより、シーケンシャルデータと時間データのより包括的で柔軟な表現が可能になる。
我々は,学習可能な経路シグネチャを持つSigKANが,様々な関数近似課題にまたがる従来の手法よりも優れた性能を発揮することを示す。
ニューラルネットワークにおける経路シグネチャを活用することにより、時系列解析や時系列予測などの分野での性能向上をめざす機会を提供する。
関連論文リスト
- SigGate: Enhancing Recurrent Neural Networks with Signature-Based Gating Mechanisms [0.0]
本稿では、経路シグネチャをゲーティング機構に組み込むことで、リカレントニューラルネットワーク(RNN)を強化する新しいアプローチを提案する。
本手法は,Long Short-Term Memory (LSTM) と Gated Recurrent Unit (GRU) アーキテクチャをそれぞれ,リセットゲートとリセットゲートを学習可能なパスシグネチャに置き換えることで変更する。
論文 参考訳(メタデータ) (2025-02-13T13:33:35Z) - Free-Knots Kolmogorov-Arnold Network: On the Analysis of Spline Knots and Advancing Stability [16.957071012748454]
Kolmogorov-Arnold Neural Networks (KAN)は、機械学習コミュニティにおいて大きな注目を集めている。
しかしながら、それらの実装はトレーニングの安定性が悪く、重いトレーニング可能なパラメータに悩まされることが多い。
本研究では, スプラインノットのレンズによるカンの挙動を解析し, B-スプライン系カンの結び目数に対する上下境界を導出する。
論文 参考訳(メタデータ) (2025-01-16T04:12:05Z) - Kolmogorov-Arnold Networks (KANs) for Time Series Analysis [6.932243286441558]
本稿では,KAN(Kolmogorov-Arnold Networks)の時系列予測への応用について紹介する。
コルモゴロフ・アルノルドの表現定理に着想を得たカンスは、伝統的な線型重みをスプラインパラメタライズされた単変数関数に置き換えた。
実世界の衛星トラフィック予測タスクにおいて,KANSAが従来のMLP(Multi-Layer Perceptrons)よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-14T17:38:17Z) - TKAN: Temporal Kolmogorov-Arnold Networks [0.0]
LSTM(Long Short-Term Memory)は、シーケンシャルデータにおける長期的な依存関係をキャプチャする能力を示している。
Kolmogorov-Arnold Networks (KANs) に触発されたマルチ層パーセプトロン(MLP)の代替案
我々はkanとLSTM、TKAN(Temporal Kolomogorov-Arnold Networks)にインスパイアされた新しいニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:40:48Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Reachability analysis in stochastic directed graphs by reinforcement
learning [67.87998628083218]
マルコフグラフにおける遷移確率のダイナミクスは差分包摂によってモデル化できることを示す。
我々は、ノードの集合の到達可能性確率の上限と下限を提供するために、報酬関数を設計する方法論を提供する。
論文 参考訳(メタデータ) (2022-02-25T08:20:43Z) - RAN-GNNs: breaking the capacity limits of graph neural networks [43.66682619000099]
グラフニューラルネットワークは、グラフ上で定義されたデータの学習と分析に対処する問題の中心となっている。
最近の研究では、複数の近隣サイズを同時に考慮し、適応的にそれらを調整する必要があるためです。
ランダムに配線されたアーキテクチャを用いることで、ネットワークの容量を増大させ、よりリッチな表現を得ることができることを示す。
論文 参考訳(メタデータ) (2021-03-29T12:34:36Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Learned Factor Graphs for Inference from Stationary Time Sequences [107.63351413549992]
定常時間列のためのモデルベースアルゴリズムとデータ駆動型MLツールを組み合わせたフレームワークを提案する。
ニューラルネットワークは、時系列の分布を記述する因子グラフの特定のコンポーネントを別々に学習するために開発された。
本稿では,学習された定常因子グラフに基づく推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-05T07:06:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。