論文の概要: FreRA: A Frequency-Refined Augmentation for Contrastive Learning on Time Series Classification
- arxiv url: http://arxiv.org/abs/2505.23181v1
- Date: Thu, 29 May 2025 07:18:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.732618
- Title: FreRA: A Frequency-Refined Augmentation for Contrastive Learning on Time Series Classification
- Title(参考訳): FreRA:時系列分類によるコントラスト学習のための周波数改善
- Authors: Tian Tian, Chunyan Miao, Hangwei Qian,
- Abstract要約: 周波数領域からの新たな視点を示し、ダウンストリーム分類の利点として、グローバル、独立、コンパクトの3つを識別する。
本稿では,分類タスクにおける時系列のコントラスト学習に適した,軽量で効果的な周波数補充拡張(FreRA)を提案する。
FreRAは、時系列分類、異常検出、転送学習タスクにおいて、常に10つの主要なベースラインを上回ります。
- 参考スコア(独自算出の注目度): 56.925103708982164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning has emerged as a competent approach for unsupervised representation learning. However, the design of an optimal augmentation strategy, although crucial for contrastive learning, is less explored for time series classification tasks. Existing predefined time-domain augmentation methods are primarily adopted from vision and are not specific to time series data. Consequently, this cross-modality incompatibility may distort the semantically relevant information of time series by introducing mismatched patterns into the data. To address this limitation, we present a novel perspective from the frequency domain and identify three advantages for downstream classification: global, independent, and compact. To fully utilize the three properties, we propose the lightweight yet effective Frequency Refined Augmentation (FreRA) tailored for time series contrastive learning on classification tasks, which can be seamlessly integrated with contrastive learning frameworks in a plug-and-play manner. Specifically, FreRA automatically separates critical and unimportant frequency components. Accordingly, we propose semantic-aware Identity Modification and semantic-agnostic Self-adaptive Modification to protect semantically relevant information in the critical frequency components and infuse variance into the unimportant ones respectively. Theoretically, we prove that FreRA generates semantic-preserving views. Empirically, we conduct extensive experiments on two benchmark datasets, including UCR and UEA archives, as well as five large-scale datasets on diverse applications. FreRA consistently outperforms ten leading baselines on time series classification, anomaly detection, and transfer learning tasks, demonstrating superior capabilities in contrastive representation learning and generalization in transfer learning scenarios across diverse datasets.
- Abstract(参考訳): コントラスト学習は、教師なし表現学習の有能なアプローチとして現れてきた。
しかし, 時系列分類作業においては, 対照的な学習に不可欠ではあるが, 最適拡張戦略の設計はあまり検討されていない。
既存の時間領域拡張手法は、主に視覚から採用されており、時系列データに固有のものではない。
これにより、データにミスマッチパターンを導入することで、時系列の意味的関連情報を歪ませることが可能となる。
この制限に対処するために、周波数領域からの新しい視点を示し、ダウンストリーム分類の利点として、グローバル、独立、コンパクトの3つを識別する。
これら3つの特性をフル活用するために,分類タスクにおける時系列のコントラスト学習に適した軽量かつ効果的な周波数補充拡張(FreRA)を提案し,プラグイン・アンド・プレイ方式でコントラスト学習フレームワークとシームレスに統合できる。
具体的には、FreRAは重要な周波数成分と重要でない周波数成分を自動的に分離する。
そこで本研究では,重要周波数成分における意味的関連情報を保護し,不重要周波数成分に分散を注入する意味認識型アイデンティティ修正と意味認識型自己適応修飾を提案する。
理論的には、FreRAが意味保存ビューを生成することを証明している。
経験的に、UCRとUEAアーカイブを含む2つのベンチマークデータセットと、多様なアプリケーションに関する5つの大規模なデータセットに対して、広範な実験を行います。
FreRAは時系列分類、異常検出、トランスファー学習のタスクにおいて10つの主要なベースラインを一貫して上回り、コントラッシブな表現学習における優れた能力と多様なデータセットにわたるトランスファー学習シナリオの一般化を示す。
関連論文リスト
- CSTA: Spatial-Temporal Causal Adaptive Learning for Exemplar-Free Video Class-Incremental Learning [62.69917996026769]
クラスインクリメンタルな学習課題は、空間的外観と時間的行動の関与の両方を学習し、保存することを必要とする。
本稿では,各クラス固有のインクリメンタル情報要件を調整し,新しいクラスパターンを学習するためのアダプタを分離するフレームワークを提案する。
異なる種類の情報間のインクリメントと記憶の衝突を減らすために,因果補償機構を提案する。
論文 参考訳(メタデータ) (2025-01-13T11:34:55Z) - Frequency-Masked Embedding Inference: A Non-Contrastive Approach for Time Series Representation Learning [0.38366697175402226]
本稿では,非コントラスト法である周波数行列埋め込み推論(FEI)を導入し,正および負のサンプルの必要性を完全に排除する。
FEIは、一般化の観点から、既存のコントラストベースの手法を著しく上回っている。
本研究は時系列の自己教師型表現学習に関する新たな知見を提供する。
論文 参考訳(メタデータ) (2024-12-30T08:12:17Z) - TSLANet: Rethinking Transformers for Time Series Representation Learning [19.795353886621715]
時系列データは、その固有の長短の依存関係によって特徴づけられる。
本稿では,時系列タスクの普遍的畳み込みモデルとして,新しい時系列軽量ネットワーク(TSLANet)を導入する。
我々の実験では、TSLANetは分類、予測、異常検出にまたがる様々なタスクにおいて最先端のモデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-04-12T13:41:29Z) - Phase-driven Domain Generalizable Learning for Nonstationary Time Series [9.753048297746608]
本稿では,時系列学習フレームワークPhASERを提案する。
1) 識別的意味を保ちながら非定常性を多様化する位相増強,2) 時間変化の大きさと位相を独立なモダリティとして見ることによって特徴符号化,3) 固有正規化のための新たな残差接続による特徴放送により分布不変性を高める,という3つの新しい要素から構成される。
論文 参考訳(メタデータ) (2024-02-05T02:51:37Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z) - Benchmarking Deep Learning Interpretability in Time Series Predictions [41.13847656750174]
モデル予測における入力特徴の重要性を強調するために、サリエンシ法が広く用いられている。
そこで我々は,多様なニューラルアーキテクチャにまたがって,サリエンシに基づく様々な解釈可能性手法の性能を広範囲に比較した。
論文 参考訳(メタデータ) (2020-10-26T22:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。