論文の概要: Efficient High-Resolution Time Series Classification via Attention
Kronecker Decomposition
- arxiv url: http://arxiv.org/abs/2403.04882v1
- Date: Thu, 7 Mar 2024 20:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:46:29.579301
- Title: Efficient High-Resolution Time Series Classification via Attention
Kronecker Decomposition
- Title(参考訳): アテンションクロネッカー分解による高分解能時系列分類
- Authors: Aosong Feng, Jialin Chen, Juan Garza, Brooklyn Berry, Francisco
Salazar, Yifeng Gao, Rex Ying, Leandros Tassiulas
- Abstract要約: 高分解能時系列分類は、様々な領域で詳細な時間データが利用可能になるために不可欠である。
そこで我々は,Kroneckerで分解された注目を多段階の時系列処理に向けることで,新しい時系列トランスフォーマーバックボーン(KronTime)を提案する。
4つの時系列データセットによる実験は, ベースライン法と比較して, 優れた分類結果を示し, 効率が向上した。
- 参考スコア(独自算出の注目度): 17.71968215237596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high-resolution time series classification problem is essential due to
the increasing availability of detailed temporal data in various domains. To
tackle this challenge effectively, it is imperative that the state-of-the-art
attention model is scalable to accommodate the growing sequence lengths
typically encountered in high-resolution time series data, while also
demonstrating robustness in handling the inherent noise prevalent in such
datasets. To address this, we propose to hierarchically encode the long time
series into multiple levels based on the interaction ranges. By capturing
relationships at different levels, we can build more robust, expressive, and
efficient models that are capable of capturing both short-term fluctuations and
long-term trends in the data. We then propose a new time series transformer
backbone (KronTime) by introducing Kronecker-decomposed attention to process
such multi-level time series, which sequentially calculates attention from the
lower level to the upper level. Experiments on four long time series datasets
demonstrate superior classification results with improved efficiency compared
to baseline methods.
- Abstract(参考訳): 高分解能時系列分類問題は、様々な領域で詳細な時間データが利用可能になるために不可欠である。
この課題を効果的に解決するには,高分解能時系列データで典型的に発生するシーケンス長の増大に対応するために,最先端の注意モデルがスケーラブルであること,また,そのようなデータセットに共通する固有ノイズの処理における堅牢性を示すことが不可欠である。
そこで本研究では,長い時系列を対話範囲に基づいて複数のレベルに階層的にエンコードする手法を提案する。
異なるレベルで関係をキャプチャすることで、データの短期的変動と長期的傾向の両方をキャプチャできる、より堅牢で表現力のある効率的なモデルを構築することができます。
次に,クロネッカー分解した注意を,下層から上層への注意を逐次計算するマルチレベル時系列処理に導入し,新しい時系列トランスフォーマーバックボーン(krontime)を提案する。
4つの時系列データセットによる実験は, ベースライン法と比較して, 優れた分類結果が得られた。
関連論文リスト
- The Bigger the Better? Rethinking the Effective Model Scale in Long-term
Time Series Forecasting [57.00348861248051]
時系列予測は時系列分析において重要なフロンティアである。
階層的な分解で拡張された軽量トランスフォーマーであるHDformerを紹介する。
HDformerは既存のLTSFモデルよりも優れており、パラメータは99%以上少ない。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Robust Detection of Lead-Lag Relationships in Lagged Multi-Factor Models [61.10851158749843]
データ固有のリード-ラグ関係を発見することで、重要な洞察を得ることができる。
階層化多要素モデルにおけるリードラグ関係のロバスト検出のためのクラスタリング駆動手法を開発した。
論文 参考訳(メタデータ) (2023-05-11T10:30:35Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Grouped self-attention mechanism for a memory-efficient Transformer [64.0125322353281]
天気予報、電力消費、株式市場などの現実世界のタスクには、時間とともに変化するデータの予測が含まれる。
時系列データは通常、その周期的特性と時間的長期依存性のために、長いシーケンスで長い観察期間にわたって記録される。
我々はGSA(Grouped Self-Attention)とCCA(Compressed Cross-Attention)の2つの新しいモジュールを提案する。
提案モデルでは,既存の手法に匹敵する計算量と性能の低減が効果的に示された。
論文 参考訳(メタデータ) (2022-10-02T06:58:49Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Hierarchically Regularized Deep Forecasting [18.539846932184012]
本稿では,グローバルな時系列集合に沿って時系列を分解した階層予測のための新しい手法を提案する。
過去の手法とは異なり、我々の手法は時系列予測の一貫性を維持しつつ、推論時にスケーラブルである。
論文 参考訳(メタデータ) (2021-06-14T17:38:16Z) - HIFI: Anomaly Detection for Multivariate Time Series with High-order
Feature Interactions [7.016615391171876]
HIFIは自動的に多変量特徴相互作用グラフを構築し、グラフ畳み込みニューラルネットワークを使用して高次特徴相互作用を実現する。
3つの公開データセットの実験は、最先端のアプローチと比較して、我々のフレームワークの優位性を示している。
論文 参考訳(メタデータ) (2021-06-11T04:57:03Z) - Classification of multivariate weakly-labelled time-series with
attention [0.0]
弱いラベル付き時系列は、ノイズと重大な冗長性を含む時系列である。
本稿では,サブシーケンスの文脈関連を活用し,分類精度を向上させる手法を提案する。
論文 参考訳(メタデータ) (2021-02-16T16:05:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。