論文の概要: StatioCL: Contrastive Learning for Time Series via Non-Stationary and Temporal Contrast
- arxiv url: http://arxiv.org/abs/2410.10048v1
- Date: Mon, 14 Oct 2024 00:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 03:23:50.255768
- Title: StatioCL: Contrastive Learning for Time Series via Non-Stationary and Temporal Contrast
- Title(参考訳): StatioCL: 時系列の非定常的・時間的コントラストによるコントラスト学習
- Authors: Yu Wu, Ting Dang, Dimitris Spathis, Hong Jia, Cecilia Mascolo,
- Abstract要約: 時系列データの表現学習において,コントラスト学習(CL)が有望なアプローチとして登場した。
既存のCL法は、固有の特性を無視して偽陰対(FNP)を導入することが多い。
両FNPを緩和するために非定常性および時間依存性を捕捉する新しいCLフレームワークであるStatioCLを紹介する。
- 参考スコア(独自算出の注目度): 22.188608362933955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning (CL) has emerged as a promising approach for representation learning in time series data by embedding similar pairs closely while distancing dissimilar ones. However, existing CL methods often introduce false negative pairs (FNPs) by neglecting inherent characteristics and then randomly selecting distinct segments as dissimilar pairs, leading to erroneous representation learning, reduced model performance, and overall inefficiency. To address these issues, we systematically define and categorize FNPs in time series into semantic false negative pairs and temporal false negative pairs for the first time: the former arising from overlooking similarities in label categories, which correlates with similarities in non-stationarity and the latter from neglecting temporal proximity. Moreover, we introduce StatioCL, a novel CL framework that captures non-stationarity and temporal dependency to mitigate both FNPs and rectify the inaccuracies in learned representations. By interpreting and differentiating non-stationary states, which reflect the correlation between trends or temporal dynamics with underlying data patterns, StatioCL effectively captures the semantic characteristics and eliminates semantic FNPs. Simultaneously, StatioCL establishes fine-grained similarity levels based on temporal dependencies to capture varying temporal proximity between segments and to mitigate temporal FNPs. Evaluated on real-world benchmark time series classification datasets, StatioCL demonstrates a substantial improvement over state-of-the-art CL methods, achieving a 2.9% increase in Recall and a 19.2% reduction in FNPs. Most importantly, StatioCL also shows enhanced data efficiency and robustness against label scarcity.
- Abstract(参考訳): コントラスト学習(CL)は、類似したペアを密に埋め込んだり、異種を分散させたりすることで、時系列データにおける表現学習に有望なアプローチとして現れてきた。
しかし、既存のCL法は、固有の特性を無視し、異なるセグメントを異なるペアとしてランダムに選択することで、誤った表現学習、モデル性能の低下、全体的な非効率性をもたらす。
これらの問題に対処するため、FNPを時系列で意味的偽陰対と時間的偽陰対に分類し、分類した。
さらに、非定常性および時間依存性を捕捉し、FNPを緩和し、学習表現の不正確性を是正する新しいCLフレームワークStatioCLを紹介する。
傾向や時間的ダイナミクスと基礎となるデータパターンとの相関を反映した非定常状態の解釈と微分によって、StatioCLは意味的特性を効果的に捉え、意味的FNPを排除します。
同時に、StatioCLは時間的依存関係に基づいて微細な類似性レベルを確立し、セグメント間の時間的近接を捉え、時間的FNPを緩和する。
実世界のベンチマーク時系列分類データセットに基づいて評価され、StatioCLは最先端のCL法よりも大幅に改善され、リコールは2.9%増加し、FNPは19.2%減少した。
最も重要な点として、StatioCLは、ラベルの不足に対するデータ効率の向上と堅牢性も示している。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - TimeDRL: Disentangled Representation Learning for Multivariate Time-Series [10.99576829280084]
TimeDRLは、アンタングル化されたデュアルレベル埋め込みを備えた一般的な時系列表現学習フレームワークである。
TimeDRLは、既存の表現学習アプローチを一貫して上回り、MSEでは58.02%、精度では1.48%の平均的な改善を実現している。
論文 参考訳(メタデータ) (2023-12-07T08:56:44Z) - Identifying Spurious Correlations using Counterfactual Alignment [5.782952470371709]
急激な相関によって駆動されるモデルは、しばしば一般化性能が劣る。
本稿では,突発的相関を検出・定量化するためのCFアライメント手法を提案する。
論文 参考訳(メタデータ) (2023-12-01T20:16:02Z) - Temporally Disentangled Representation Learning under Unknown Nonstationarity [35.195001384417395]
我々は、時間遅れの潜伏因果変数を再構成するために、原則的推定フレームワークNCTRLを導入する。
経験的評価は、時間遅れの潜伏因果関係の信頼性を実証した。
論文 参考訳(メタデータ) (2023-10-28T06:46:03Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Beyond Instance Discrimination: Relation-aware Contrastive
Self-supervised Learning [75.46664770669949]
本稿では,関係認識型コントラスト型自己教師型学習(ReCo)をインスタンス関係に統合するために提案する。
当社のReCoは、常に顕著なパフォーマンス改善を実現しています。
論文 参考訳(メタデータ) (2022-11-02T03:25:28Z) - Deep Contrastive One-Class Time Series Anomaly Detection [15.27593816198766]
時系列の逆1クラス異常検出法(COCA)を著者らにより提案する。
元の表現と再構成された表現を、正対の負サンプルのないCL、すなわち「シーケンスコントラスト」として扱う。
論文 参考訳(メタデータ) (2022-07-04T15:08:06Z) - Instance-Dependent Label-Noise Learning with Manifold-Regularized
Transition Matrix Estimation [172.81824511381984]
遷移行列 T(x) は、インスタンス依存ノイズ(IDN)の下では特定できない
我々は、T(x) の幾何学について、「より近い2つのインスタンスは、それに対応する遷移行列がより類似している」という仮定を提案する。
本手法は,難解なIDNの下でのラベルノイズ学習において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-06T04:12:01Z) - Temporal Transductive Inference for Few-Shot Video Object Segmentation [27.140141181513425]
Few-shot Object segmentation (FS-VOS) は、初期訓練中に見えないクラスのラベル付き例を用いて、ビデオフレームのセグメンテーションを目的としている。
我々のアプローチの鍵は、グローバルな時間的制約とローカルな時間的制約の両方を使用することである。
経験的に、我々のモデルは、YouTube-VIS上の組合間の平均交点を2.8%上回る、最先端のメタラーニングアプローチより優れている。
論文 参考訳(メタデータ) (2022-03-27T14:08:30Z) - CSDI: Conditional Score-based Diffusion Models for Probabilistic Time
Series Imputation [107.63407690972139]
Conditional Score-based Diffusion Model for Imputation (CSDI) は、観測データに条件付きスコアベース拡散モデルを利用する新しい時系列計算法である。
CSDIは、一般的なパフォーマンスメトリクスの既存の確率論的計算方法よりも40-70%改善されている。
さらに、Cは最先端の決定論的計算法と比較して誤差を5-20%削減する。
論文 参考訳(メタデータ) (2021-07-07T22:20:24Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。