論文の概要: FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification
- arxiv url: http://arxiv.org/abs/2302.09818v1
- Date: Mon, 20 Feb 2023 07:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:18:32.644393
- Title: FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification
- Title(参考訳): formerTime:多変量時系列分類のための階層型マルチスケール表現
- Authors: Mingyue Cheng, Qi Liu, Zhiding Liu, Zhi Li, Yucong Luo, Enhong Chen
- Abstract要約: formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
- 参考スコア(独自算出の注目度): 53.55504611255664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based algorithms, e.g., convolutional networks, have
significantly facilitated multivariate time series classification (MTSC) task.
Nevertheless, they suffer from the limitation in modeling long-range dependence
due to the nature of convolution operations. Recent advancements have shown the
potential of transformers to capture long-range dependence. However, it would
incur severe issues, such as fixed scale representations, temporal-invariant
and quadratic time complexity, with transformers directly applicable to the
MTSC task because of the distinct properties of time series data. To tackle
these issues, we propose FormerTime, an hierarchical representation model for
improving the classification capacity for the MTSC task. In the proposed
FormerTime, we employ a hierarchical network architecture to perform
multi-scale feature maps. Besides, a novel transformer encoder is further
designed, in which an efficient temporal reduction attention layer and a
well-informed contextual positional encoding generating strategy are developed.
To sum up, FormerTime exhibits three aspects of merits: (1) learning
hierarchical multi-scale representations from time series data, (2) inheriting
the strength of both transformers and convolutional networks, and (3) tacking
the efficiency challenges incurred by the self-attention mechanism. Extensive
experiments performed on $10$ publicly available datasets from UEA archive
verify the superiorities of the FormerTime compared to previous competitive
baselines.
- Abstract(参考訳): 深層学習に基づくアルゴリズム、例えば畳み込みネットワークは、多変量時系列分類(MTSC)タスクを著しく促進している。
それにもかかわらず、畳み込み操作の性質から長距離依存のモデル化の限界に苦しむ。
近年の進歩は、長距離依存を捉えるトランスフォーマーの可能性を示している。
しかし、時系列データの異なる性質のため、MTSCタスクに直接変換器を適用することで、固定スケール表現、時間不変性、二次時間複雑性などの深刻な問題が発生する。
そこで本研究では,mtscタスクの分類能力を向上させるための階層表現モデルである formertime を提案する。
提案手法では,階層型ネットワークアーキテクチャを用いてマルチスケール機能マップを実行する。
さらに、効率的な時間的減少注意層と、よく表現された文脈的位置符号化生成戦略を開発する新しいトランスフォーマーエンコーダを更に設計する。
結論として,(1)時系列データから階層的なマルチスケール表現を学習すること,(2)トランスフォーマーと畳み込みネットワークの強さを継承すること,(3)自己認識機構によって生じる効率上の課題に対処すること,の3つのメリットを示す。
uea archive の 10 ドルの公開データセットで行った広範囲な実験は、以前の競合ベースラインと比較して、前時代の優位性を検証している。
関連論文リスト
- PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Rough Transformers: Lightweight Continuous-Time Sequence Modelling with Path Signatures [46.58170057001437]
本稿では,入力シーケンスの連続時間表現で動作するトランスフォーマーモデルのバリエーションであるRough Transformerを紹介する。
様々な時系列関連タスクにおいて、Rough Transformersはベニラアテンションよりも常に優れています。
論文 参考訳(メタデータ) (2024-05-31T14:00:44Z) - ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for
Multivariate Time Series Analysis [8.560776357590088]
ConvTimeNetは、時系列解析のための汎用モデルとして設計された、新しい階層的完全畳み込みネットワークである。
結果は、ほとんどの状況において、有効性という点で、一貫して強いベースラインを上回りました。
論文 参考訳(メタデータ) (2024-03-03T12:05:49Z) - Transformer-based Video Saliency Prediction with High Temporal Dimension
Decoding [12.595019348741042]
本稿では,高テンポラル次元ネットワークデコーディング(THTDNet)を用いたトランスフォーマに基づくビデオサリエンシ予測手法を提案する。
このアーキテクチャは、DHF1KやUCFスポーツ、ハリウッド-2といった一般的なベンチマークで、マルチブランチや過剰に複雑なモデルに匹敵する性能が得られる。
論文 参考訳(メタデータ) (2024-01-15T20:09:56Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Infomaxformer: Maximum Entropy Transformer for Long Time-Series
Forecasting Problem [6.497816402045097]
Transformerアーキテクチャは、自然言語処理(NLP)やコンピュータビジョン(CV)といった多くのタスクにおいて、最先端の結果をもたらす。
しかし、この高度な能力により、二次的な時間複雑性と高いメモリ使用量により、Transformerは長い時系列予測問題に対処できなくなる。
本稿では,エンコーダ・デコーダアーキテクチャと季節差分解を併用して,より特定の季節差部分を取得する手法を提案する。
論文 参考訳(メタデータ) (2023-01-04T14:08:21Z) - Cluster-Former: Clustering-based Sparse Transformer for Long-Range
Dependency Encoding [90.77031668988661]
Cluster-Formerはクラスタリングベースの新しいスパーストランスであり、チャンクされたシーケンスにまたがって注意を向ける。
提案されたフレームワークは、Sliding-Window LayerとCluster-Former Layerの2つのユニークなタイプのTransformer Layerにピボットされている。
実験によると、Cluster-Formerはいくつかの主要なQAベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-13T22:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。