論文の概要: Symbol-Temporal Consistency Self-supervised Learning for Robust Time Series Classification
- arxiv url: http://arxiv.org/abs/2509.19654v1
- Date: Wed, 24 Sep 2025 00:18:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.640374
- Title: Symbol-Temporal Consistency Self-supervised Learning for Robust Time Series Classification
- Title(参考訳): ロバスト時系列分類のための記号-時間一貫性自己教師型学習
- Authors: Kevin Garcia, Cassandra Garza, Brooklyn Berry, Yifeng Gao,
- Abstract要約: デジタルヘルスにおける時系列データは、非常に騒々しく、本質的には概念の漂流を伴うことが知られており、一般化可能なディープラーニングモデルをトレーニングする上での課題となっている。
そこで本稿では,記号表現を意識した自己教師型学習フレームワークを提案する。
提案手法は, 重要なデータシフトが存在する場合において, 性能が著しく向上することが実証された。
- 参考スコア(独自算出の注目度): 12.705047994947597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The surge in the significance of time series in digital health domains necessitates advanced methodologies for extracting meaningful patterns and representations. Self-supervised contrastive learning has emerged as a promising approach for learning directly from raw data. However, time series data in digital health is known to be highly noisy, inherently involves concept drifting, and poses a challenge for training a generalizable deep learning model. In this paper, we specifically focus on data distribution shift caused by different human behaviors and propose a self-supervised learning framework that is aware of the bag-of-symbol representation. The bag-of-symbol representation is known for its insensitivity to data warping, location shifts, and noise existed in time series data, making it potentially pivotal in guiding deep learning to acquire a representation resistant to such data shifting. We demonstrate that the proposed method can achieve significantly better performance where significant data shifting exists.
- Abstract(参考訳): デジタルヘルス領域における時系列の重要性の高まりは、意味のあるパターンや表現を抽出するための高度な方法論を必要とする。
自己教師付きコントラスト学習は、生データから直接学習するための有望なアプローチとして現れてきた。
しかし、デジタルヘルスにおける時系列データは、本質的には概念の漂流を伴い、非常にうるさいことが知られており、一般化可能なディープラーニングモデルを訓練する上での課題となっている。
本稿では,人的行動の違いによるデータ分散シフトに着目し,記号表現を意識した自己教師型学習フレームワークを提案する。
バッグ・オブ・シンボル表現は、時系列データに存在するデータワーピングや位置シフト、ノイズに敏感であることで知られており、このようなデータシフトに抵抗する表現を得るためのディープラーニングを導く上で、潜在的に重要な要素である。
提案手法は,重要なデータシフトが存在する場合,性能が大幅に向上できることを実証する。
関連論文リスト
- FreRA: A Frequency-Refined Augmentation for Contrastive Learning on Time Series Classification [56.925103708982164]
周波数領域からの新たな視点を示し、ダウンストリーム分類の利点として、グローバル、独立、コンパクトの3つを識別する。
本稿では,分類タスクにおける時系列のコントラスト学習に適した,軽量で効果的な周波数補充拡張(FreRA)を提案する。
FreRAは、時系列分類、異常検出、転送学習タスクにおいて、常に10つの主要なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-29T07:18:28Z) - Understanding the Limits of Deep Tabular Methods with Temporal Shift [28.738848567072004]
本稿では,Fourier級数展開に基づく時間的組込み手法を提案し,時間的パターンを学習し,組み込む。
我々の実験は、この時間的埋め込みと改良されたトレーニングプロトコルを組み合わせることで、時間的データから学習するためのより効果的で堅牢なフレームワークが提供されることを示した。
論文 参考訳(メタデータ) (2025-02-27T16:48:53Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Representation Learning of Multivariate Time Series using Attention and Adversarial Training [1.7418480517632609]
変換器をベースとしたオートエンコーダを提案し, 逆方向のトレーニングスキームを用いて, 人工時系列信号を生成する。
その結果,生成した信号は畳み込みネットワークを用いた場合よりも,模範的データセットとの類似性が高いことがわかった。
論文 参考訳(メタデータ) (2024-01-03T21:32:46Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - Mixing Up Contrastive Learning: Self-Supervised Representation Learning
for Time Series [22.376529167056376]
ラベルスムーシングの観点から,教師なしのコントラスト学習フレームワークを提案する。
提案手法は、データ拡張スキームを自然に活用する、新しい対照的な損失を用いる。
実験は、他の表現学習アプローチと比較して、フレームワークのパフォーマンスが優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T11:49:21Z) - Unsupervised Representation Learning for Time Series with Temporal
Neighborhood Coding [8.45908939323268]
非定常時系列に対する一般化可能な表現を学習するための自己教師型フレームワークを提案する。
我々のモチベーションは、時系列データの動的性質をモデル化する能力が特に有用である医療分野に起因している。
論文 参考訳(メタデータ) (2021-06-01T19:53:24Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。