論文の概要: A Unified Contrastive-Generative Framework for Time Series Classification
- arxiv url: http://arxiv.org/abs/2508.09451v1
- Date: Wed, 13 Aug 2025 03:09:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.736351
- Title: A Unified Contrastive-Generative Framework for Time Series Classification
- Title(参考訳): 時系列分類のための統一コントラスト生成フレームワーク
- Authors: Ziyu Liu, Azadeh Alavi, Minyi Li, Xiang Zhang,
- Abstract要約: コントラスト生成時系列フレームワーク(CoGenT)を提案する。
これは、時間的データにおける高いクラス内類似性に対する対照的な学習の感度を克服し、生成的手法の大規模なデータセットへの依存を減らす。
その結果、59.2%と14.27%のF1がスタンドアローンのSimCLRとMAEをそれぞれ上回り、一貫した改善が見られた。
- 参考スコア(独自算出の注目度): 7.712601563682029
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised learning (SSL) for multivariate time series mainly includes two paradigms: contrastive methods that excel at instance discrimination and generative approaches that model data distributions. While effective individually, their complementary potential remains unexplored. We propose a Contrastive Generative Time series framework (CoGenT), the first framework to unify these paradigms through joint contrastive-generative optimization. CoGenT addresses fundamental limitations of both approaches: it overcomes contrastive learning's sensitivity to high intra-class similarity in temporal data while reducing generative methods' dependence on large datasets. We evaluate CoGenT on six diverse time series datasets. The results show consistent improvements, with up to 59.2% and 14.27% F1 gains over standalone SimCLR and MAE, respectively. Our analysis reveals that the hybrid objective preserves discriminative power while acquiring generative robustness. These findings establish a foundation for hybrid SSL in temporal domains. We will release the code shortly.
- Abstract(参考訳): 多変量時系列の自己教師付き学習(SSL)には、主に2つのパラダイムがある。
個々に効果はあるが、その相補的ポテンシャルは未解明のままである。
コントラッシブ・ジェネレーティブ・タイム・シリーズ・フレームワーク(CoGenT)を提案する。
CoGenTは両方のアプローチの基本的な制限に対処する: 時間データにおける高いクラス内類似性に対する対照的な学習の感度を克服し、生成的手法の大規模なデータセットへの依存を減らす。
我々は6つの時系列データセット上でCoGenTを評価する。
その結果、59.2%と14.27%のF1がスタンドアローンのSimCLRとMAEをそれぞれ上回り、一貫した改善が見られた。
本分析により, 遺伝的ロバスト性を得ながら, 識別力を維持することが示唆された。
これらの知見は、時間領域におけるハイブリッドSSLの基礎を確立している。
まもなくコードを公開します。
関連論文リスト
- FCPCA: Fuzzy clustering of high-dimensional time series based on common principal component analysis [11.138320457692288]
本研究は,共通主成分分析に基づくファジィクラスタリング手法を提案する。
提案手法は文献におけるいくつかの既存手法よりも優れていることを示す。
シミュレーション運転実験から記録された異なるドライバからの脳信号を含む興味深い応用は、このアプローチの可能性を示している。
論文 参考訳(メタデータ) (2025-05-12T06:59:17Z) - Hybrid Ensemble Deep Graph Temporal Clustering for Spatiotemporal Data [0.37083047471478225]
多変量時間データ解析のためのハイブリッドアンサンブルグラフクラスタリング(HEDGTC)法を提案する。
HEDGTCは、従来のクラスタリングからノイズや誤分類に対処するためのデュアルコンセンサスアプローチを採用している。
3つの実世界のデータセットで評価すると、HEDGTCは最先端のアンサンブルクラスタリングモデルより優れている。
論文 参考訳(メタデータ) (2024-09-19T09:14:10Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Robust Detection of Lead-Lag Relationships in Lagged Multi-Factor Models [61.10851158749843]
データ固有のリード-ラグ関係を発見することで、重要な洞察を得ることができる。
階層化多要素モデルにおけるリードラグ関係のロバスト検出のためのクラスタリング駆動手法を開発した。
論文 参考訳(メタデータ) (2023-05-11T10:30:35Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Cluster-and-Conquer: A Framework For Time-Series Forecasting [94.63501563413725]
本稿では,高次元時系列データを予測するための3段階フレームワークを提案する。
当社のフレームワークは非常に汎用的で,各ステップで時系列予測やクラスタリングが利用可能です。
単純な線形自己回帰モデルでインスタンス化されると、いくつかのベンチマークデータセットで最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-26T20:41:19Z) - Minority Oversampling for Imbalanced Time Series Classification [7.695093197007146]
本稿では,高次元不均衡時間系列分類に対処するオーバーサンプリング手法を提案する。
いくつかの公開時系列データセットの実験結果は、最先端のオーバーサンプリングアルゴリズムに対するOHITの優位性を示している。
論文 参考訳(メタデータ) (2020-04-14T09:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。