論文の概要: Unsupervised Time-Series Representation Learning with Iterative Bilinear
Temporal-Spectral Fusion
- arxiv url: http://arxiv.org/abs/2202.04770v1
- Date: Tue, 8 Feb 2022 14:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 14:41:10.495528
- Title: Unsupervised Time-Series Representation Learning with Iterative Bilinear
Temporal-Spectral Fusion
- Title(参考訳): 繰り返し双線形時間スペクトル融合による教師なし時系列表現学習
- Authors: Ling Yang, Shenda Hong, Luxia Zhang
- Abstract要約: 本稿では,双線形時間スペクトル融合(BTSF)という統合フレームワークを提案する。
具体的には、インスタンスレベルの拡張を時系列全体への単純なドロップアウトで利用し、長期的依存関係を最大限に捉えます。
時間-周波数ペアの親和性を明示的にエンコードするために、新しい反復性双線形時間-スペクトル融合を考案する。
- 参考スコア(独自算出の注目度): 6.154427471704388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised/self-supervised time series representation learning is a
challenging problem because of its complex dynamics and sparse annotations.
Existing works mainly adopt the framework of contrastive learning with the
time-based augmentation techniques to sample positives and negatives for
contrastive training. Nevertheless, they mostly use segment-level augmentation
derived from time slicing, which may bring about sampling bias and incorrect
optimization with false negatives due to the loss of global context. Besides,
they all pay no attention to incorporate the spectral information in feature
representation. In this paper, we propose a unified framework, namely Bilinear
Temporal-Spectral Fusion (BTSF). Specifically, we firstly utilize the
instance-level augmentation with a simple dropout on the entire time series for
maximally capturing long-term dependencies. We devise a novel iterative
bilinear temporal-spectral fusion to explicitly encode the affinities of
abundant time-frequency pairs, and iteratively refines representations in a
fusion-and-squeeze manner with Spectrum-to-Time (S2T) and Time-to-Spectrum
(T2S) Aggregation modules. We firstly conducts downstream evaluations on three
major tasks for time series including classification, forecasting and anomaly
detection. Experimental results shows that our BTSF consistently significantly
outperforms the state-of-the-art methods.
- Abstract(参考訳): 教師なし/自己教師なしの時系列表現学習は複雑なダイナミクスとスパースアノテーションのため、難しい問題である。
既存の研究は主にコントラスト学習の枠組みと時間に基づく増補技術を採用しており、対照的なトレーニングのために正と負のサンプルをサンプリングしている。
それにもかかわらず、彼らは主に時間スライシングから派生したセグメントレベルの拡張を使用しており、グローバルコンテキストの損失によるサンプリングバイアスと誤った最適化をもたらす可能性がある。
さらに、スペクトル情報を特徴表現に組み込むことには注意を払っていません。
本稿では,Bilinear Temporal-Spectral Fusion (BTSF) という統合フレームワークを提案する。
具体的には、まずインスタンスレベルの拡張を時系列全体への単純なドロップアウトで利用し、長期的依存関係を最大限に捉えます。
時間-周波数対の親和性を明示的に符号化し,スペクトル-時間 (S2T) と時間-スペクトル (T2S) のアグリゲーションモジュールとの融合により表現を反復的に洗練する。
まず,時系列の分類,予測,異常検出を含む3つの主要なタスクについて下流評価を行う。
実験の結果,BTSFは最先端の手法よりも優れていた。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - Explaining Time Series via Contrastive and Locally Sparse Perturbations [45.055327583283315]
ContraLSPは、非形式的摂動を構築するために反事実サンプルを導入するスパースモデルである。
合成と実世界の両方のデータセットに関する実証研究は、ContraLSPが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-01-16T18:27:37Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Self-Supervised Time Series Representation Learning via Cross
Reconstruction Transformer [11.908755624411707]
既存のアプローチは主に対照的な学習フレームワークを活用し、類似したデータペアと異なるデータペアを理解するために自動的に学習する。
本稿では、上記の問題を統一的に解くために、CRT(Cross Reconstruction Transformer)を提案する。
CRTはクロスドメインドロップ・リコンストラクションタスクを通じて時系列表現学習を実現する。
論文 参考訳(メタデータ) (2022-05-20T02:15:14Z) - Imputing Missing Observations with Time Sliced Synthetic Minority
Oversampling Technique [0.3973560285628012]
本稿では,データセット内の各サンプルに対して均一な不規則な時系列を構成することを目的とした,単純かつ斬新な時系列計算手法を提案する。
我々は、観測時間の重複しないビン(「スライス」と呼ばれる)の中間点で定義される格子を固定し、各サンプルが所定の時間にすべての特徴に対して値を持つことを保証する。
これにより、完全に欠落した観察をインプットし、データ全体の時系列の均一な分類を可能にし、特別な場合には個々の欠落した特徴をインプットすることができる。
論文 参考訳(メタデータ) (2022-01-14T19:23:24Z) - Anomaly Transformer: Time Series Anomaly Detection with Association
Discrepancy [68.86835407617778]
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
Anomaly Transformerは、6つの教師なし時系列異常検出ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-10-06T10:33:55Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。