論文の概要: A Unified Shape-Aware Foundation Model for Time Series Classification
- arxiv url: http://arxiv.org/abs/2601.06429v1
- Date: Sat, 10 Jan 2026 05:04:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.811657
- Title: A Unified Shape-Aware Foundation Model for Time Series Classification
- Title(参考訳): 時系列分類のための統一形状認識基礎モデル
- Authors: Zhen Liu, Yucheng Wang, Boyuan Li, Junhao Zheng, Emadeldeen Eldele, Min Wu, Qianli Ma,
- Abstract要約: 時系列分類のための統一型形状認識基盤モデルUniShapeを提案する。
UniShapeには、マルチスケールの識別サブシーケンス(shapes)をクラストークンに適応的に集約する形状認識アダプタが組み込まれている。
プロトタイプベースの事前学習モジュールを導入し、インスタンスレベルの表現と形状レベルの表現を共同で学習する。
- 参考スコア(独自算出の注目度): 26.26217792622276
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Foundation models pre-trained on large-scale source datasets are reshaping the traditional training paradigm for time series classification. However, existing time series foundation models primarily focus on forecasting tasks and often overlook classification-specific challenges, such as modeling interpretable shapelets that capture class-discriminative temporal features. To bridge this gap, we propose UniShape, a unified shape-aware foundation model designed for time series classification. UniShape incorporates a shape-aware adapter that adaptively aggregates multiscale discriminative subsequences (shapes) into class tokens, effectively selecting the most relevant subsequence scales to enhance model interpretability. Meanwhile, a prototype-based pretraining module is introduced to jointly learn instance- and shape-level representations, enabling the capture of transferable shape patterns. Pre-trained on a large-scale multi-domain time series dataset comprising 1.89 million samples, UniShape exhibits superior generalization across diverse target domains. Experiments on 128 UCR datasets and 30 additional time series datasets demonstrate that UniShape achieves state-of-the-art classification performance, with interpretability and ablation analyses further validating its effectiveness.
- Abstract(参考訳): 大規模なソースデータセットで事前トレーニングされたファンデーションモデルは、時系列分類のための伝統的なトレーニングパラダイムを再構築している。
しかし、既存の時系列基礎モデルは、主に予測タスクに焦点をあてており、クラス識別の時間的特徴を捉える解釈可能なシェイプレットをモデル化するなど、分類固有の課題を見落としていることが多い。
このギャップを埋めるために、時系列分類用に設計された統一型形状認識基盤モデルUniShapeを提案する。
UniShapeには、マルチスケールの識別サブシーケンス(shapes)をクラストークンに適応的に集約する形状認識アダプタが組み込まれており、モデル解釈可能性を高めるために、最も関連するサブシーケンススケールを効果的に選択できる。
一方、プロトタイプベースの事前学習モジュールを導入し、インスタンスレベルの表現と形状レベルの表現を共同で学習し、転送可能な形状パターンのキャプチャを可能にする。
1.89万のサンプルからなる大規模マルチドメイン時系列データセットで事前訓練されたUniShapeは、多様な対象ドメインにまたがる優れた一般化を示す。
128のUCRデータセットと30の追加時系列データセットの実験は、UniShapeが最先端の分類性能を達成することを示した。
関連論文リスト
- Time Series Generation Under Data Scarcity: A Unified Generative Modeling Approach [7.631288333466648]
データ・スカース・セッティングにおける主要な生成モデルを評価するための大規模な研究を初めて行った。
本稿では,いくつかの例を用いて高忠実度時系列を合成できる拡散型統合生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T18:39:04Z) - VSFormer: Value and Shape-Aware Transformer with Prior-Enhanced Self-Attention for Multivariate Time Series Classification [47.92529531621406]
識別パターン(形状)と数値情報(値)の両方を組み込んだVSFormerを提案する。
さらに、教師付き情報から派生したクラス固有の事前情報を抽出し、位置エンコーディングを強化する。
30のUEAアーカイブデータセットに対する大規模な実験は、SOTAモデルと比較して、我々の手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-21T07:31:22Z) - Measuring Pre-training Data Quality without Labels for Time Series Foundation Models [10.64362760848387]
基礎モデルで学習した表現空間の質を評価するための新しい尺度であるコントラスト精度を導入する。
実験の結果,提案手法とモデル精度との正の相関関係を下流タスクの集合上で明らかにした。
論文 参考訳(メタデータ) (2024-12-09T10:38:30Z) - UniCL: A Universal Contrastive Learning Framework for Large Time Series Models [18.005358506435847]
時系列分析は、金融から医療まで、さまざまな重要なアプリケーションにおいて重要な役割を果たす。
従来の教師付き学習手法は、まず各タスクにおける時系列データの広範なラベルを注釈付けする。
本稿では,時系列基礎モデルの事前学習を目的とした,普遍的でスケーラブルなコントラスト学習フレームワークUniCLを紹介する。
論文 参考訳(メタデータ) (2024-05-17T07:47:11Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Pre-trained time series models for cross-domain Time series analysis tasks [20.228846068418765]
Large Pre-trained Time-Series Models (LPTM) は、事前トレーニング中に最適なデータセット固有のセグメンテーション戦略を自動的に識別する適応セグメンテーションの新しい手法である。
LPTMは、最先端のベースラインに比べて最大40%データが少なく、トレーニング時間も50%少ない。
論文 参考訳(メタデータ) (2023-11-19T20:16:16Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。