論文の概要: Sonnet: Spectral Operator Neural Network for Multivariable Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2505.15312v1
- Date: Wed, 21 May 2025 09:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.424616
- Title: Sonnet: Spectral Operator Neural Network for Multivariable Time Series Forecasting
- Title(参考訳): Sonnet:多変数時系列予測のためのスペクトル演算子ニューラルネットワーク
- Authors: Yuxuan Shu, Vasileios Lampos,
- Abstract要約: 我々は新しいアーキテクチャ、すなわちスペクトル演算子ニューラルネットワーク(Sonnet)を提案する。
ソンネットは入力に学習可能なウェーブレット変換を適用し、クープマン作用素を用いたスペクトル解析を取り入れている。
われわれの実証分析によると、Sonnetは予測タスクの47ドルのうち34ドルで最高のパフォーマンスを得ている。
- 参考スコア(独自算出の注目度): 0.34530027457862006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariable time series forecasting methods can integrate information from exogenous variables, leading to significant prediction accuracy gains. Transformer architecture has been widely applied in various time series forecasting models due to its ability to capture long-range sequential dependencies. However, a na\"ive application of transformers often struggles to effectively model complex relationships among variables over time. To mitigate against this, we propose a novel architecture, namely the Spectral Operator Neural Network (Sonnet). Sonnet applies learnable wavelet transformations to the input and incorporates spectral analysis using the Koopman operator. Its predictive skill relies on the Multivariable Coherence Attention (MVCA), an operation that leverages spectral coherence to model variable dependencies. Our empirical analysis shows that Sonnet yields the best performance on $34$ out of $47$ forecasting tasks with an average mean absolute error (MAE) reduction of $1.1\%$ against the most competitive baseline (different per task). We further show that MVCA -- when put in place of the na\"ive attention used in various deep learning models -- can remedy its deficiencies, reducing MAE by $10.7\%$ on average in the most challenging forecasting tasks.
- Abstract(参考訳): 多変数時系列予測法は外生変数からの情報を統合することができ、予測精度が大幅に向上する。
トランスフォーマーアーキテクチャは、長距離のシーケンシャルな依存関係をキャプチャできるため、様々な時系列予測モデルに広く応用されている。
しかし、変圧器の「自然な」応用は、時間とともに変数間の複雑な関係を効果的にモデル化するのに苦労することが多い。
これを回避するために,スペクトル演算子ニューラルネットワーク(Sonnet)という新しいアーキテクチャを提案する。
ソンネットは入力に学習可能なウェーブレット変換を適用し、クープマン作用素を用いたスペクトル解析を取り入れている。
その予測スキルは多変数コヒーレンス注意(MVCA)に依存しており、スペクトルコヒーレンスをモデル変数依存に利用している。
我々の実証分析によると、Sonnetは平均的な平均絶対誤差(MAE)が1.1\%(タスク毎の差)と最も競争力のあるベースラインに対して、予測タスクの47ドルのうち、34ドルで最高のパフォーマンスを得る。
さらに、様々なディープラーニングモデルで使われるna\に代えてMVCAが障害を軽減できることを示し、最も困難な予測タスクにおいて、MAEを平均10.7\%削減する。
関連論文リスト
- MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - EDformer: Embedded Decomposition Transformer for Interpretable Multivariate Time Series Predictions [4.075971633195745]
本稿では,時系列予測タスクのための組込みトランス「EDformer」を提案する。
基本要素を変更することなく、Transformerアーキテクチャを再利用し、その構成部品の有能な機能について検討する。
このモデルは、複雑な実世界の時系列データセットの精度と効率の観点から、最先端の予測結果を得る。
論文 参考訳(メタデータ) (2024-12-16T11:13:57Z) - MGCP: A Multi-Grained Correlation based Prediction Network for Multivariate Time Series [54.91026286579748]
本稿では,マルチグラインド相関に基づく予測ネットワークを提案する。
予測性能を高めるために3段階の相関を同時に検討する。
注意機構に基づく予測器と条件判別器を用いて、粗い粒度の予測結果を最適化する。
論文 参考訳(メタデータ) (2024-05-30T03:32:44Z) - TSLANet: Rethinking Transformers for Time Series Representation Learning [19.795353886621715]
時系列データは、その固有の長短の依存関係によって特徴づけられる。
本稿では,時系列タスクの普遍的畳み込みモデルとして,新しい時系列軽量ネットワーク(TSLANet)を導入する。
我々の実験では、TSLANetは分類、予測、異常検出にまたがる様々なタスクにおいて最先端のモデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-04-12T13:41:29Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - Are Transformers Effective for Time Series Forecasting? [13.268196448051308]
近年、時系列予測(TSF)タスクのためのTransformerベースのソリューションが急増している。
本研究は,Transformer-based techniqueが長期時系列予測に適した解であるかどうかを考察する。
変換器をベースとした解の長期予測精度が比較的高いことは,変換器アーキテクチャの時間的関係抽出能力とはほとんど関係がないことがわかった。
論文 参考訳(メタデータ) (2022-05-26T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。