論文の概要: T-Rep: Representation Learning for Time Series using Time-Embeddings
- arxiv url: http://arxiv.org/abs/2310.04486v3
- Date: Thu, 9 May 2024 10:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 18:19:06.755909
- Title: T-Rep: Representation Learning for Time Series using Time-Embeddings
- Title(参考訳): T-Rep: 時間埋め込みを用いた時系列表現学習
- Authors: Archibald Fraikin, Adrien Bennetot, Stéphanie Allassonnière,
- Abstract要約: 本稿では,時系列表現を時間ステップの粒度で学習する自己教師型T-Repを提案する。
T-Repはその特徴抽出器と共に時間のベクトル埋め込みを学び、時間的特徴を抽出する。
下流分類,予測,異常検出タスクにおけるT-Repの評価を行った。
- 参考スコア(独自算出の注目度): 5.885238773559017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multivariate time series present challenges to standard machine learning techniques, as they are often unlabeled, high dimensional, noisy, and contain missing data. To address this, we propose T-Rep, a self-supervised method to learn time series representations at a timestep granularity. T-Rep learns vector embeddings of time alongside its feature extractor, to extract temporal features such as trend, periodicity, or distribution shifts from the signal. These time-embeddings are leveraged in pretext tasks, to incorporate smooth and fine-grained temporal dependencies in the representations, as well as reinforce robustness to missing data. We evaluate T-Rep on downstream classification, forecasting, and anomaly detection tasks. It is compared to existing self-supervised algorithms for time series, which it outperforms in all three tasks. We test T-Rep in missing data regimes, where it proves more resilient than its counterparts. Finally, we provide latent space visualisation experiments, highlighting the interpretability of the learned representations.
- Abstract(参考訳): 多変量時系列は、しばしばラベルが付かず、高次元でノイズがあり、欠落したデータを含んでいるため、標準的な機械学習技術に挑戦する。
そこで本稿では,時系列表現を時間ステップの粒度で学習する自己教師型T-Repを提案する。
T-Repは特徴抽出器と共に時間のベクトル埋め込みを学び、信号からトレンド、周期性、分布シフトなどの時間的特徴を抽出する。
これらの時間埋め込みは、プレテキストタスクに利用され、スムーズできめ細かな時間的依存関係を表現に組み込むとともに、欠落したデータに対する堅牢性を強化する。
下流分類,予測,異常検出タスクにおけるT-Repの評価を行った。
時系列の既存の自己教師型アルゴリズムと比較され、3つのタスクすべてで優れています。
私たちは、T-Repが欠落しているデータ構造でテストします。
最後に、学習した表現の解釈可能性を強調し、潜在空間可視化実験を行う。
関連論文リスト
- Self-Supervised Learning of Disentangled Representations for Multivariate Time-Series [10.99576829280084]
TimeDRLは多変量時系列表現学習のためのフレームワークである。
TimeDRLの特徴は, []トークン戦略を用いたタイムスタンプレベルおよびインスタンスレベルの埋め込み, (ii)表現学習のためのタイムスタンプ予測およびインスタンスコントラストタスク, (iii)帰納的バイアスを取り除くための拡張手法の回避である。
予測と分類データセットの実験では、TimeDRLは既存の手法よりも優れており、ラベル付きデータに制限のある半教師付き設定でさらなる検証が行われている。
論文 参考訳(メタデータ) (2024-10-16T14:24:44Z) - Time Series Representation Learning with Supervised Contrastive Temporal Transformer [8.223940676615857]
textbf Supervised textbfCOntrastive textbfTemporal textbfTransformer (SCOTT)
まず,変化不変表現の学習を支援するために,様々な時系列データに対する適切な拡張手法について検討する。
論文 参考訳(メタデータ) (2024-03-16T03:37:19Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - TimeDRL: Disentangled Representation Learning for Multivariate Time-Series [10.99576829280084]
TimeDRLは、アンタングル化されたデュアルレベル埋め込みを備えた一般的な時系列表現学習フレームワークである。
TimeDRLは、既存の表現学習アプローチを一貫して上回り、MSEでは58.02%、精度では1.48%の平均的な改善を実現している。
論文 参考訳(メタデータ) (2023-12-07T08:56:44Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Spatio-temporal predictive tasks for abnormal event detection in videos [60.02503434201552]
オブジェクトレベルの正規化パターンを学習するための制約付きプレテキストタスクを提案する。
我々のアプローチは、ダウンスケールの視覚的クエリとそれに対応する正常な外観と運動特性のマッピングを学習することである。
いくつかのベンチマークデータセットの実験では、異常の局所化と追跡のためのアプローチの有効性が示されている。
論文 参考訳(メタデータ) (2022-10-27T19:45:12Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - Self-supervised Transformer for Multivariate Clinical Time-Series with
Missing Values [7.9405251142099464]
本稿ではSTraTS(Self-supervised Transformer for TimeSeries)モデルを提案する。
伝統的な密度行列表現を使う代わりに、時系列を観測三重項の集合として扱う。
これは、特にラベル付きデータが制限された場合、死亡予測の最先端手法よりも優れた予測性能を示す。
論文 参考訳(メタデータ) (2021-07-29T19:39:39Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。