論文の概要: UTICA: Multi-Objective Self-Distllation Foundation Model Pretraining for Time Series Classification
- arxiv url: http://arxiv.org/abs/2603.01348v1
- Date: Mon, 02 Mar 2026 01:02:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.640051
- Title: UTICA: Multi-Objective Self-Distllation Foundation Model Pretraining for Time Series Classification
- Title(参考訳): UTICA:時系列分類のための多目的自己分散基礎モデル
- Authors: Yessin Moakher, Youssef Attia El Hili, Vasilii Feofanov,
- Abstract要約: 我々は,DINOv2スタイルの自己蒸留に適応し,時系列基礎モデルの事前学習を行う。
私たちはMantisトークンライザとトランスフォーマーエンコーダアーキテクチャをバックボーンとして構築しています。
提案手法は,UCRベンチマークとUEAベンチマークの両方で最先端の分類性能を実現する。
- 参考スコア(独自算出の注目度): 5.071106490524274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised foundation models have achieved remarkable success across domains, including time series. However, the potential of non-contrastive methods, a paradigm that has driven significant advances in computer vision, remains underexplored for time series. In this work, we adapt DINOv2-style self-distillation to pretrain a time series foundation model, building on the Mantis tokenizer and transformer encoder architecture as our backbone. Through a student-teacher framework, our method Utica learns representations that capture both temporal invariance via augmented crops and fine-grained local structure via patch masking. Our approach achieves state-of-the-art classification performance on both UCR and UEA benchmarks. These results suggest that non-contrastive methods are a promising and complementary pretraining strategy for time series foundation models.
- Abstract(参考訳): 自己監督型基礎モデルは、時系列を含む各領域で顕著な成功を収めている。
しかし、コンピュータビジョンにおいて大きな進歩を遂げたパラダイムである非コントラスト的手法のポテンシャルは、時系列ではまだ過小評価されていない。
本研究では,DINOv2スタイルの自己蒸留法を用いて時系列基礎モデルの事前学習を行い,Mantisトークンとトランスフォーマーエンコーダアーキテクチャをバックボーンとして構築する。
学生と教師の枠組みを通じて、Uticaは、強化作物による時間的不変性と、パッチマスキングによるきめ細かい局所構造の両方をキャプチャーする表現を学習する。
提案手法は,UCRベンチマークとUEAベンチマークの両方で最先端の分類性能を実現する。
これらの結果は,非競合的手法が時系列基礎モデルの有望かつ補完的な事前学習戦略であることを示唆している。
関連論文リスト
- Joint Embeddings Go Temporal [5.2741154046624255]
JEPA(Joint Emmbedding Predictive Architectures)は、潜在分野における自己教師型学習の実現を目的として導入されたアーキテクチャである。
時系列JEPA (TS-JEPA) は、時系列表現学習に特化したアーキテクチャである。
TS-JEPAは、異なる標準データセット上で、現在の最先端のベースラインに適合または超えることができることを示す。
論文 参考訳(メタデータ) (2025-09-29T19:57:37Z) - RATFM: Retrieval-augmented Time Series Foundation Model for Anomaly Detection [0.6524530902514115]
テスト時間適応の例を取り入れた検索拡張時系列基礎モデル(RATFM)を提案する。
RATFMはドメイン依存の微調整を回避しつつ、ドメイン内の微調整に匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-06-02T10:25:35Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Toward a Foundation Model for Time Series Data [34.1973242428317]
基礎モデルは、大規模で多様なデータセットに基づいてトレーニングされた機械学習モデルである。
複数のドメインのラベルのないサンプルを活用することで,効率的な時系列基礎モデルを構築する。
論文 参考訳(メタデータ) (2023-10-05T21:44:50Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Semi-supervised Facial Action Unit Intensity Estimation with Contrastive
Learning [54.90704746573636]
提案手法では,手動でキーフレームを選択する必要はなく,2%の注釈付きフレームで最先端の結果を生成できる。
提案手法は, ランダムに選択したデータに対してわずか2%の費用で作業した場合に, 既存の手法よりも優れていることを実験的に検証した。
論文 参考訳(メタデータ) (2020-11-03T17:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。