論文の概要: Learning Timestamp-Level Representations for Time Series with
Hierarchical Contrastive Loss
- arxiv url: http://arxiv.org/abs/2106.10466v1
- Date: Sat, 19 Jun 2021 10:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:57:13.696613
- Title: Learning Timestamp-Level Representations for Time Series with
Hierarchical Contrastive Loss
- Title(参考訳): 階層的コントラスト損失を伴う時系列の学習タイムスタンプレベル表現
- Authors: Zhihan Yue, Yujing Wang, Juanyong Duan, Tianmeng Yang, Congrui Huang,
Bixiong Xu
- Abstract要約: 本稿では,時系列のタイムスタンプレベルの表現を学習するための汎用フレームワークTS2Vecを提案する。
学習した表現は予測能力に優れていた。
TS2Vecは、教師なし時系列表現の既存のSOTAと比較して大幅に改善されている。
- 参考スコア(独自算出の注目度): 5.949615763956198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents TS2Vec, a universal framework for learning
timestamp-level representations of time series. Unlike existing methods, TS2Vec
performs timestamp-wise discrimination, which learns a contextual
representation vector directly for each timestamp. We find that the learned
representations have superior predictive ability. A linear regression trained
on top of the learned representations outperforms previous SOTAs for supervised
time series forecasting. Also, the instance-level representations can be simply
obtained by applying a max pooling layer on top of learned representations of
all timestamps. We conduct extensive experiments on time series classification
tasks to evaluate the quality of instance-level representations. As a result,
TS2Vec achieves significant improvement compared with existing SOTAs of
unsupervised time series representation on 125 UCR datasets and 29 UEA
datasets. The source code is publicly available at
https://github.com/yuezhihan/ts2vec.
- Abstract(参考訳): 本稿では,時系列のタイムスタンプレベルの表現を学習するための汎用フレームワークTS2Vecを提案する。
既存の方法とは異なり、ts2vecはタイムスタンプごとに文脈表現ベクトルを直接学習するタイムスタンプワイズ識別を行う。
学習した表現は予測能力に優れていた。
学習した表現の上に訓練された線形回帰は、教師付き時系列予測のために以前のSOTAよりも優れている。
また、インスタンスレベルの表現は、すべてのタイムスタンプの学習された表現の上に最大プーリング層を適用することで簡単に得られる。
インスタンスレベルの表現の品質を評価するために,時系列分類タスクに関する広範囲な実験を行う。
その結果、ts2vecは125の ucr データセットと 29の uea データセットの教師なし時系列表現の既存の sota と比較して大幅に改善された。
ソースコードはhttps://github.com/yuezhihan/ts2vecで公開されている。
関連論文リスト
- Time Series Representation Learning with Supervised Contrastive Temporal Transformer [8.223940676615857]
textbf Supervised textbfCOntrastive textbfTemporal textbfTransformer (SCOTT)
まず,変化不変表現の学習を支援するために,様々な時系列データに対する適切な拡張手法について検討する。
論文 参考訳(メタデータ) (2024-03-16T03:37:19Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Series2Vec: Similarity-based Self-supervised Representation Learning for
Time Series Classification [13.775977945756415]
自己教師型表現学習のための textitSeries2Vec という新しい手法を提案する。
Series2Vecは、時間領域とスペクトル領域の両方における2つの系列の類似性を予測するために訓練されている。
我々は,Series2Vecが完全教師付きトレーニングと互換性があり,限られたラベル付きデータを持つデータセットにおいて高い効率を提供することを示す。
論文 参考訳(メタデータ) (2023-12-07T02:30:40Z) - Contrastive Difference Predictive Coding [79.74052624853303]
本研究では、時系列データの断片を縫合して、将来の事象の予測を学習するために必要なデータの量を減少させるコントラッシブ予測符号化の時間差版を導入する。
目的条件付きRLの非政治アルゴリズムを導出するために,この表現学習手法を適用した。
論文 参考訳(メタデータ) (2023-10-31T03:16:32Z) - T-Rep: Representation Learning for Time Series using Time-Embeddings [5.885238773559017]
本稿では,時系列表現を時間ステップの粒度で学習する自己教師型T-Repを提案する。
T-Repはその特徴抽出器と共に時間のベクトル埋め込みを学び、時間的特徴を抽出する。
下流分類,予測,異常検出タスクにおけるT-Repの評価を行った。
論文 参考訳(メタデータ) (2023-10-06T15:45:28Z) - Temporal Graph Benchmark for Machine Learning on Temporal Graphs [54.52243310226456]
テンポラルグラフベンチマーク(TGB)は、困難で多様なベンチマークデータセットのコレクションである。
各データセットをベンチマークし、共通のモデルのパフォーマンスがデータセット間で大きく異なることを発見した。
TGBは、再現可能でアクセス可能な時間グラフ研究のための自動機械学習パイプラインを提供する。
論文 参考訳(メタデータ) (2023-07-03T13:58:20Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Time-Series Representation Learning via Temporal and Contextual
Contrasting [14.688033556422337]
時間・文脈コントラスト(TS-TCC)を用いた教師なし時系列表現学習フレームワークを提案する。
第一に、生の時系列データは、弱い、強い拡張を用いて、2つの異なる相関するビューに変換される。
第2に,厳密な横断的予測タスクを設計することにより,頑健な時間的表現を学習するための新しい時間的コントラストモジュールを提案する。
第三に、識別的表現をさらに学習するために、時間的コントラストモジュールからコンテキスト上に構築された文脈的コントラストモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-26T23:56:31Z) - A Closer Look at Temporal Sentence Grounding in Videos: Datasets and
Metrics [70.45937234489044]
2つの広く使用されているTSGVデータセット(Charades-STAとActivityNet Captions)を再編成し、トレーニング分割と異なるものにします。
基本的なIoUスコアを校正するために、新しい評価基準「dR@$n$,IoU@$m$」を導入する。
すべての結果は、再編成されたデータセットと新しいメトリクスがTSGVの進捗をよりよく監視できることを示している。
論文 参考訳(メタデータ) (2021-01-22T09:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。