論文の概要: Series2Vec: Similarity-based Self-supervised Representation Learning for
Time Series Classification
- arxiv url: http://arxiv.org/abs/2312.03998v1
- Date: Thu, 7 Dec 2023 02:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:29:39.373792
- Title: Series2Vec: Similarity-based Self-supervised Representation Learning for
Time Series Classification
- Title(参考訳): Series2Vec: 時系列分類のための類似性に基づく自己教師型表現学習
- Authors: Navid Mohammadi Foumani, Chang Wei Tan, Geoffrey I. Webb, Mahsa Salehi
- Abstract要約: 自己教師型表現学習のための textitSeries2Vec という新しい手法を提案する。
Series2Vecは、時間領域とスペクトル領域の両方における2つの系列の類似性を予測するために訓練されている。
我々は,Series2Vecが完全教師付きトレーニングと互換性があり,限られたラベル付きデータを持つデータセットにおいて高い効率を提供することを示す。
- 参考スコア(独自算出の注目度): 5.855653273150561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that time series analysis is fundamentally different in nature to
either vision or natural language processing with respect to the forms of
meaningful self-supervised learning tasks that can be defined. Motivated by
this insight, we introduce a novel approach called \textit{Series2Vec} for
self-supervised representation learning. Unlike other self-supervised methods
in time series, which carry the risk of positive sample variants being less
similar to the anchor sample than series in the negative set, Series2Vec is
trained to predict the similarity between two series in both temporal and
spectral domains through a self-supervised task. Series2Vec relies primarily on
the consistency of the unsupervised similarity step, rather than the intrinsic
quality of the similarity measurement, without the need for hand-crafted data
augmentation. To further enforce the network to learn similar representations
for similar time series, we propose a novel approach that applies
order-invariant attention to each representation within the batch during
training. Our evaluation of Series2Vec on nine large real-world datasets, along
with the UCR/UEA archive, shows enhanced performance compared to current
state-of-the-art self-supervised techniques for time series. Additionally, our
extensive experiments show that Series2Vec performs comparably with fully
supervised training and offers high efficiency in datasets with limited-labeled
data. Finally, we show that the fusion of Series2Vec with other representation
learning models leads to enhanced performance for time series classification.
Code and models are open-source at
\url{https://github.com/Navidfoumani/Series2Vec.}
- Abstract(参考訳): 時系列分析は、定義可能な意味のある自己教師型学習タスクの形式に関して、視覚処理や自然言語処理と本質的に異なると論じる。
この知見に動機づけられ、自己教師付き表現学習のための新しいアプローチである \textit{series2vec} を導入する。
正のサンプル変種が負のセットの級数よりもアンカーのサンプルに似ていないというリスクを持つ時系列の他の自己教師あり手法とは異なり、 series2vec は自己教師付きタスクを通じて時間領域とスペクトル領域の両方の2つの系列の類似性を予測するように訓練される。
Series2Vecは、手作りのデータ拡張を必要とせず、本質的に類似度測定の質よりも、教師なしの類似度ステップの一貫性に依存している。
さらに,類似した時系列の類似表現をネットワークに学習させるため,訓練中のバッチ内の各表現に順序不変注意を適用する新しい手法を提案する。
UCR/UEAアーカイブとともに,9つの大規模実世界のデータセットに対するSeries2Vecの評価を行った。
さらに, 大規模実験により, series2vec が完全な教師付きトレーニングと相性良く動作し, 限られたラベルデータを持つデータセットにおいて高い効率性を提供することを示した。
最後に,Series2Vecと他の表現学習モデルとの融合が時系列分類の性能向上につながることを示す。
コードとモデルは、 \url{https://github.com/Navidfoumani/Series2Vecでオープンソース化されている。
}
関連論文リスト
- TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - A Co-training Approach for Noisy Time Series Learning [35.61140756248812]
エンコーダを学習するために,協調学習に基づくコントラスト学習を反復的に実施する。
我々の実験は、このコトレーニングアプローチが性能を著しく向上させることを示した。
TS-CoTが既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-08-24T04:33:30Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - Expressing Multivariate Time Series as Graphs with Time Series Attention
Transformer [14.172091921813065]
多変量時系列表現学習のための時系列注意変換器(TSAT)を提案する。
TSATを用いて、エッジ強化された動的グラフの観点から、時系列の時間情報と相互依存の両方を表現している。
TSATは、様々な予測地平線において、最先端の6つのベースライン法より明らかに優れていることを示す。
論文 参考訳(メタデータ) (2022-08-19T12:25:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - Time-Series Representation Learning via Temporal and Contextual
Contrasting [14.688033556422337]
時間・文脈コントラスト(TS-TCC)を用いた教師なし時系列表現学習フレームワークを提案する。
第一に、生の時系列データは、弱い、強い拡張を用いて、2つの異なる相関するビューに変換される。
第2に,厳密な横断的予測タスクを設計することにより,頑健な時間的表現を学習するための新しい時間的コントラストモジュールを提案する。
第三に、識別的表現をさらに学習するために、時間的コントラストモジュールからコンテキスト上に構築された文脈的コントラストモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-26T23:56:31Z) - Voice2Series: Reprogramming Acoustic Models for Time Series
Classification [65.94154001167608]
Voice2Seriesは、時系列分類のための音響モデルをプログラムする新しいエンドツーエンドアプローチである。
V2Sは20のタスクで性能が優れるか、最先端のメソッドと結びついているかを示し、平均精度を1.84%向上させる。
論文 参考訳(メタデータ) (2021-06-17T07:59:15Z) - A Deep Structural Model for Analyzing Correlated Multivariate Time
Series [11.009809732645888]
相関した多変量時系列入力を処理できる深層学習構造時系列モデルを提案する。
モデルは、トレンド、季節性、イベントコンポーネントを明示的に学習し、抽出する。
我々は,様々な時系列データセットに関する総合的な実験を通して,そのモデルと最先端のいくつかの手法を比較した。
論文 参考訳(メタデータ) (2020-01-02T18:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。