論文の概要: MantisV2: Closing the Zero-Shot Gap in Time Series Classification with Synthetic Data and Test-Time Strategies
- arxiv url: http://arxiv.org/abs/2602.17868v1
- Date: Thu, 19 Feb 2026 22:04:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.167209
- Title: MantisV2: Closing the Zero-Shot Gap in Time Series Classification with Synthetic Data and Test-Time Strategies
- Title(参考訳): MantisV2: 合成データとテスト時間戦略を用いた時系列分類におけるゼロショットギャップのクローン化
- Authors: Vasilii Feofanov, Songkang Wen, Jianfeng Zhang, Lujia Pan, Ievgen Redko,
- Abstract要約: 時系列のゼロショット特徴抽出を大幅に強化する手法を提案する。
まず,合成時系列に基づいて事前学習したマンティスの変種であるマンティス+を紹介する。
第3に、中間層表現を活用して出力-トケンアグリゲーションを洗練する拡張テスト時間方法論を提案する。
- 参考スコア(独自算出の注目度): 24.74962014919613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing foundation models for time series classification is of high practical relevance, as such models can serve as universal feature extractors for diverse downstream tasks. Although early models such as Mantis have shown the promise of this approach, a substantial performance gap remained between frozen and fine-tuned encoders. In this work, we introduce methods that significantly strengthen zero-shot feature extraction for time series. First, we introduce Mantis+, a variant of Mantis pre-trained entirely on synthetic time series. Second, through controlled ablation studies, we refine the architecture and obtain MantisV2, an improved and more lightweight encoder. Third, we propose an enhanced test-time methodology that leverages intermediate-layer representations and refines output-token aggregation. In addition, we show that performance can be further improved via self-ensembling and cross-model embedding fusion. Extensive experiments on UCR, UEA, Human Activity Recognition (HAR) benchmarks, and EEG datasets show that MantisV2 and Mantis+ consistently outperform prior time series foundation models, achieving state-of-the-art zero-shot performance.
- Abstract(参考訳): 時系列分類のための基礎モデルの開発は、様々な下流タスクのための普遍的特徴抽出器として機能しうるため、実践的妥当性が高い。
マンティスのような初期のモデルはこのアプローチの可能性を示していたが、凍結されたエンコーダと微調整されたエンコーダの間にはかなりの性能差があった。
本研究では,時系列のゼロショット特徴抽出を大幅に強化する手法を提案する。
まず,合成時系列に基づいて事前学習したマンティスの変種であるマンティス+を紹介する。
第2に、制御されたアブレーション研究を通じて、アーキテクチャを洗練し、改良されたより軽量なエンコーダであるMantisV2を得る。
第3に、中間層表現を活用して出力-トケンアグリゲーションを洗練する拡張テスト時間方法論を提案する。
さらに,本研究では,自己認識とクロスモデル埋め込み融合により,さらなる性能向上が期待できることを示す。
UCR、UEA、Human Activity Recognition (HAR)ベンチマーク、EEGデータセットに関する大規模な実験は、MantisV2とMantis+が常に先行時系列の基礎モデルより優れており、最先端のゼロショットパフォーマンスを実現していることを示している。
関連論文リスト
- UTICA: Multi-Objective Self-Distllation Foundation Model Pretraining for Time Series Classification [5.071106490524274]
我々は,DINOv2スタイルの自己蒸留に適応し,時系列基礎モデルの事前学習を行う。
私たちはMantisトークンライザとトランスフォーマーエンコーダアーキテクチャをバックボーンとして構築しています。
提案手法は,UCRベンチマークとUEAベンチマークの両方で最先端の分類性能を実現する。
論文 参考訳(メタデータ) (2026-03-02T01:02:09Z) - Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - Output Scaling: YingLong-Delayed Chain of Thought in a Large Pretrained Time Series Forecasting Model [55.25659103706409]
このフレームワークは,設計した基盤モデルであるYingLongの最先端性能を実現する。
YingLongは、マスク付きトークンリカバリによってトレーニングされた非因果的双方向アテンションエンコーダのみのトランスフォーマーである。
我々は、6Mから3Mパラメータの4つの基礎モデルをリリースし、ゼロショットタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2025-05-20T14:31:06Z) - Large EEG-U-Transformer for Time-Step Level Detection Without Pre-Training [1.3254304182988286]
局所的特徴と大域的特徴の両方を捉えることで表現を効率的に学習する単純なU字モデルを提案する。
他のウィンドウレベルの分類モデルと比較して,本手法は時間段階の予測を直接出力する。
我々のモデルは、てんかんおよび他の神経疾患における人工知能に関する国際会議において、2025年の第1回「青信号検出チャレンジ」で優勝した。
論文 参考訳(メタデータ) (2025-04-01T01:33:42Z) - Scaling Laws of Synthetic Data for Language Models [125.41600201811417]
プレトレーニングコーパスを多種多様な高品質な合成データセットに変換するスケーラブルなフレームワークであるSynthLLMを紹介した。
提案手法は,グラフアルゴリズムを用いて複数の文書にまたがるハイレベルな概念を自動的に抽出し,再結合することで実現している。
論文 参考訳(メタデータ) (2025-03-25T11:07:12Z) - Mantis: Lightweight Calibrated Foundation Model for User-Friendly Time Series Classification [16.738168952631735]
我々は、Vision Transformerアーキテクチャに基づく時系列分類のための新しいオープンソース基盤モデルであるMantisを紹介する。
実験の結果,マンティスは背骨凍結時と微調整時の両方で既存の基礎モデルより優れていた。
論文 参考訳(メタデータ) (2025-02-21T18:06:09Z) - A Mamba Foundation Model for Time Series Forecasting [13.593170999506889]
本稿では,マンバアーキテクチャ上に構築された時系列予測のための線形複雑基盤モデルであるTSMambaを紹介する。
このモデルは、前方および後方のMambaエンコーダを通して時間的依存関係をキャプチャし、高い予測精度を達成する。
また、タスク固有の予測モデルと比較して、競争力や優れたフルショットパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-11-05T09:34:05Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - MADS: Modulated Auto-Decoding SIREN for time series imputation [9.673093148930874]
我々は,暗黙のニューラル表現に基づく時系列計算のための新しい自動デコードフレームワークMADSを提案する。
実世界の2つのデータセット上で本モデルを評価し,時系列計算における最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T09:08:47Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。