論文の概要: Self-supervised Contrastive Representation Learning for Semi-supervised
Time-Series Classification
- arxiv url: http://arxiv.org/abs/2208.06616v3
- Date: Sun, 3 Sep 2023 00:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 11:13:55.075348
- Title: Self-supervised Contrastive Representation Learning for Semi-supervised
Time-Series Classification
- Title(参考訳): 半教師付き時系列分類のための自己教師付きコントラスト表現学習
- Authors: Emadeldeen Eldele, Mohamed Ragab, Zhenghua Chen, Min Wu, Chee-Keong
Kwoh, Xiaoli Li and Cuntai Guan
- Abstract要約: 時間・文脈コントラスト(TS-TCC)を用いた新しい時系列表現学習フレームワークを提案する。
具体的には、時系列固有の弱弱化と強弱化を提案し、その見解を用いて、堅牢な時間関係を学習する。
また、TS-TCCを半教師付き学習環境に拡張し、いくつかのラベル付きデータから恩恵を受けるクラスアウェアTS-TCC(CA-TCC)を提案する。
- 参考スコア(独自算出の注目度): 25.37700142906292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning time-series representations when only unlabeled data or few labeled
samples are available can be a challenging task. Recently, contrastive
self-supervised learning has shown great improvement in extracting useful
representations from unlabeled data via contrasting different augmented views
of data. In this work, we propose a novel Time-Series representation learning
framework via Temporal and Contextual Contrasting (TS-TCC) that learns
representations from unlabeled data with contrastive learning. Specifically, we
propose time-series-specific weak and strong augmentations and use their views
to learn robust temporal relations in the proposed temporal contrasting module,
besides learning discriminative representations by our proposed contextual
contrasting module. Additionally, we conduct a systematic study of time-series
data augmentation selection, which is a key part of contrastive learning. We
also extend TS-TCC to the semi-supervised learning settings and propose a
Class-Aware TS-TCC (CA-TCC) that benefits from the available few labeled data
to further improve representations learned by TS-TCC. Specifically, we leverage
the robust pseudo labels produced by TS-TCC to realize a class-aware
contrastive loss. Extensive experiments show that the linear evaluation of the
features learned by our proposed framework performs comparably with the fully
supervised training. Additionally, our framework shows high efficiency in the
few labeled data and transfer learning scenarios. The code is publicly
available at \url{https://github.com/emadeldeen24/CA-TCC}.
- Abstract(参考訳): ラベル付きデータやラベル付きサンプルが少ない場合に時系列表現を学ぶことは、難しい作業である。
近年, コントラスト型自己教師学習は, 異なるデータの拡張ビューを対比することにより, ラベルのないデータから有用な表現を抽出する上で大きな進歩を見せている。
本稿では,ラベルのないデータからコントラスト学習を行う時間的および文脈的コントラスト(ts-tcc)を用いた,新しい時系列表現学習フレームワークを提案する。
具体的には、時系列固有の弱弱化と強増化を提案し、その見解を用いて、提案した時間的コントラストモジュールにおける堅牢な時間的関係を学習し、提案した文脈的コントラストモジュールによる識別的表現を学習する。
さらに,コントラスト学習の重要な部分である時系列データ拡張選択の体系的研究を行った。
また、TS-TCCを半教師付き学習環境に拡張し、TS-TCCで学習した表現をさらに改善するために、いくつかのラベル付きデータから恩恵を受けるクラスアウェアTS-TCC(CA-TCC)を提案する。
具体的には、TS-TCCが生成するロバストな擬似ラベルを利用して、クラス認識の対照的な損失を実現する。
広範な実験により,提案フレームワークで学習した特徴の線形評価は,教師あり訓練と同等に機能することが示された。
さらに,本フレームワークはラベル付きデータと転送学習シナリオにおいて高い効率性を示す。
コードは \url{https://github.com/emadeldeen24/CA-TCC} で公開されている。
関連論文リスト
- Parametric Augmentation for Time Series Contrastive Learning [33.47157775532995]
我々は、堅牢で差別的な表現を学習する上でモデルを支援するポジティブな例を作成します。
通常、プリセットされた人間の直観は、関連するデータ拡張の選択を指示する。
本稿では、時系列表現学習を支援するために適応的に使用できるパラメトリック拡張型学習フレームワークAutoTCLを提案する。
論文 参考訳(メタデータ) (2024-02-16T03:51:14Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - Soft Contrastive Learning for Time Series [5.752266579415516]
時系列の簡易かつ効果的なソフトコントラスト学習戦略であるSoftCLTを提案する。
具体的には,1)データ空間上の時系列間の距離によるインスタンス単位のコントラスト損失,2)タイムスタンプの違いによる時間的コントラスト損失について,ソフトな割り当てを定義する。
実験では、SoftCLTは、分類、半教師付き学習、移動学習、異常検出など、様々な下流タスクのパフォーマンスを一貫して改善することを示した。
論文 参考訳(メタデータ) (2023-12-27T06:15:00Z) - SMC-NCA: Semantic-guided Multi-level Contrast for Semi-supervised Temporal Action Segmentation [53.010417880335424]
半教師付き時間的アクションセグメンテーション(SS-TA)は、長編ビデオにおいてフレームワイズ分類を行うことを目的としている。
近年の研究では、教師なし表現学習におけるコントラスト学習の可能性が示されている。
本稿では,SMC-NCA(Neighbourhood-Consistency-Aware Unit)を用いたセマンティック誘導型マルチレベルコントラスト方式を提案する。
論文 参考訳(メタデータ) (2023-12-19T17:26:44Z) - Graph-Aware Contrasting for Multivariate Time-Series Classification [50.84488941336865]
既存のコントラスト学習手法は主に、時間的拡張とコントラスト技術による時間的一貫性を達成することに焦点を当てている。
MTSデータ間の空間的整合性を考慮したグラフ認識コントラストを提案する。
提案手法は,様々なMSS分類タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-11T02:35:22Z) - TACO: Temporal Latent Action-Driven Contrastive Loss for Visual Reinforcement Learning [73.53576440536682]
時間的行動駆動型コントラスト学習(TACO: Temporal Action-driven Contrastive Learning)は、時間的コントラスト学習の強力なアプローチである。
TACOは、現在の状態の表現間の相互情報を最適化することにより、状態と行動表現を同時に学習する。
オンラインRLでは、TACOは100万の環境インタラクションステップの後、40%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2023-06-22T22:21:53Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - Mixing Up Contrastive Learning: Self-Supervised Representation Learning
for Time Series [22.376529167056376]
ラベルスムーシングの観点から,教師なしのコントラスト学習フレームワークを提案する。
提案手法は、データ拡張スキームを自然に活用する、新しい対照的な損失を用いる。
実験は、他の表現学習アプローチと比較して、フレームワークのパフォーマンスが優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T11:49:21Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Time-Series Representation Learning via Temporal and Contextual
Contrasting [14.688033556422337]
時間・文脈コントラスト(TS-TCC)を用いた教師なし時系列表現学習フレームワークを提案する。
第一に、生の時系列データは、弱い、強い拡張を用いて、2つの異なる相関するビューに変換される。
第2に,厳密な横断的予測タスクを設計することにより,頑健な時間的表現を学習するための新しい時間的コントラストモジュールを提案する。
第三に、識別的表現をさらに学習するために、時間的コントラストモジュールからコンテキスト上に構築された文脈的コントラストモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-26T23:56:31Z) - Temporal Contrastive Graph Learning for Video Action Recognition and
Retrieval [83.56444443849679]
本研究では,動画内の時間依存性を利用して,TCGL (temporal Contrastive Graph Learning) という新たな自己監督手法を提案する。
TCGLは、スニペット間およびスニペット内時間依存性を時間表現学習のための自己監督信号として共同で評価するハイブリッドグラフコントラスト学習戦略をルーツとしています。
実験結果は、大規模アクション認識およびビデオ検索ベンチマークにおける最先端の方法よりも、TCGLの優位性を示しています。
論文 参考訳(メタデータ) (2021-01-04T08:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。