論文の概要: ShapeCond: Fast Shapelet-Guided Dataset Condensation for Time Series Classification
- arxiv url: http://arxiv.org/abs/2602.09008v1
- Date: Mon, 09 Feb 2026 18:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.436063
- Title: ShapeCond: Fast Shapelet-Guided Dataset Condensation for Time Series Classification
- Title(参考訳): ShapeCond: 時系列分類のための高速シェープレットガイドデータセット凝縮
- Authors: Sijia Peng, Yun Xiong, Xi Chen, Yi Xie, Guanzhi Li, Yanwei Yu, Yangyong Zhu, Zhiqiang Shen,
- Abstract要約: 時系列データは多くの領域(例えば金融と気候科学)をサポートしているが、その急速な成長は記憶と計算を歪ませている。
ほとんどの凝縮法は画像中心であり、時系列固有の時間構造を欠くため、時系列で失敗することが多い。
時系列分類のための新規かつ効率的な凝縮フレームワークであるShapeCondを提案する。
- 参考スコア(独自算出の注目度): 47.42264338864178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series data supports many domains (e.g., finance and climate science), but its rapid growth strains storage and computation. Dataset condensation can alleviate this by synthesizing a compact training set that preserves key information. Yet most condensation methods are image-centric and often fail on time series because they miss time-series-specific temporal structure, especially local discriminative motifs such as shapelets. In this work, we propose ShapeCond, a novel and efficient condensation framework for time series classification that leverages shapelet-based dataset knowledge via a shapelet-guided optimization strategy. Our shapelet-assisted synthesis cost is independent of sequence length: longer series yield larger speedups in synthesis (e.g., 29$\times$ faster over prior state-of-the-art method CondTSC for time-series condensation, and up to 10,000$\times$ over naively using shapelets on the Sleep dataset with 3,000 timesteps). By explicitly preserving critical local patterns, ShapeCond improves downstream accuracy and consistently outperforms all prior state-of-the-art time series dataset condensation methods across extensive experiments. Code is available at https://github.com/lunaaa95/ShapeCond.
- Abstract(参考訳): 時系列データは多くの領域(例えば金融と気候科学)をサポートしているが、その急速な成長は記憶と計算を歪ませている。
データセットの凝縮は、キー情報を保持するコンパクトなトレーニングセットを合成することでこれを緩和することができる。
しかし、ほとんどの凝縮法は画像中心であり、時系列ではしばしば失敗するが、それは時系列固有の時間構造、特にシェープレットのような局所的な識別モチーフを欠いているためである。
本研究では,シェープレットに基づくデータセットの知識を,シェープレット誘導最適化戦略を通じて活用する,時系列分類のための新規かつ効率的な凝縮フレームワークであるShapeCondを提案する。
我々のシェープレット支援合成コストはシーケンス長とは無関係で、より長い系列は、合成においてより大きなスピードアップをもたらす(例:29$\times$、時系列凝縮のための先行最先端法CondTSC、3000のタイムステップを持つSleepデータセット上のシェープレットを使って最大10,000$\times$、)。
クリティカルなローカルパターンを明示的に保存することで、ShapeCondは下流の精度を向上し、広範囲な実験でそれまでの最先端の時系列データセットの凝縮法を一貫して上回る。
コードはhttps://github.com/lunaaa95/ShapeCond.comで入手できる。
関連論文リスト
- Dataset Condensation for Time Series Classification via Dual Domain Matching [12.317728375957717]
本研究では,textittextbfTime textittextbfSeries textittextbfClassificationをDual Domain Matching経由で生成する新しいフレームワークであるtextittextbfCondensationを提案する。
提案するフレームワークは,時間領域と周波数領域の両方のサロゲート目的にマッチする凝縮データセットを生成することを目的としている。
論文 参考訳(メタデータ) (2024-03-12T02:05:06Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Learning Gaussian Mixture Representations for Tensor Time Series
Forecasting [8.31607451942671]
我々は、時間、位置、およびソース変数に暗示される各不均一成分を個別にモデル化する新しいTS予測フレームワークを開発する。
2つの実世界のTSデータセットによる実験結果は、最先端のベースラインと比較して、我々のアプローチの優位性を検証する。
論文 参考訳(メタデータ) (2023-06-01T06:50:47Z) - Elastic Product Quantization for Time Series [19.839572576189187]
本稿では,時間ゆらぎの時間系列の効率的な類似度に基づく比較に製品量子化を用いることを提案する。
提案手法は, 時系列アプリケーションにおける弾性測度を, 高効率(メモリ使用量と時間の両方)で置き換える手法として現れる。
論文 参考訳(メタデータ) (2022-01-04T09:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。