論文の概要: TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
- arxiv url: http://arxiv.org/abs/2402.16412v1
- Date: Mon, 26 Feb 2024 09:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:53:09.012694
- Title: TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
- Title(参考訳): TOTEM:一般時系列解析のためのTokenized Time Series EMbeddings
- Authors: Sabera Talukder and Yisong Yue and Georgia Gkioxari
- Abstract要約: 本稿では,自己教師型で学習した離散ベクトル化表現を用いて,様々な領域からの時系列データを埋め込んだ簡易なトークン化アーキテクチャを提案する。
3つのタスクにわたる17のリアルタイム時系列データセットに対して,TOTEMの有効性を広範囲に評価して検討した。
- 参考スコア(独自算出の注目度): 32.854449155765344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of general time series analysis has recently begun to explore
unified modeling, where a common architectural backbone can be retrained on a
specific task for a specific dataset. In this work, we approach unification
from a complementary vantage point: unification across tasks and domains. To
this end, we explore the impact of discrete, learnt, time series data
representations that enable generalist, cross-domain training. Our method,
TOTEM, or TOkenized Time Series EMbeddings, proposes a simple tokenizer
architecture that embeds time series data from varying domains using a discrete
vectorized representation learned in a self-supervised manner. TOTEM works
across multiple tasks and domains with minimal to no tuning. We study the
efficacy of TOTEM with an extensive evaluation on 17 real world time series
datasets across 3 tasks. We evaluate both the specialist (i.e., training a
model on each domain) and generalist (i.e., training a single model on many
domains) settings, and show that TOTEM matches or outperforms previous best
methods on several popular benchmarks. The code can be found at:
https://github.com/SaberaTalukder/TOTEM.
- Abstract(参考訳): 一般的な時系列解析の分野は、最近、特定のデータセットの特定のタスクで共通のアーキテクチャのバックボーンを再トレーニングできる統一モデリングを探求し始めている。
本研究では,タスクとドメイン間の統一という,相補的優位点から統一にアプローチする。
この目的のために、汎用的なクロスドメイントレーニングを可能にする離散的、学習的、時系列データ表現の影響について検討する。
本手法,TOTEM,Tokenized Time Series EMbeddings は,自己教師型で学習した離散ベクトル化表現を用いて,様々な領域からの時系列データを埋め込んだ単純なトークン化アーキテクチャを提案する。
TOTEMは、最小限から無チューニングで、複数のタスクやドメインで動作します。
3つのタスクにわたる17のリアルタイム時系列データセットに対して,TOTEMの有効性を広範囲に評価して検討した。
我々は、専門家(各ドメイン上でモデルをトレーニングする)とジェネラリスト(複数のドメイン上で単一モデルをトレーニングする)の両方の設定を評価し、TOTEMがいくつかの人気のあるベンチマークにおいて、以前のベストメソッドにマッチするか、より優れていることを示す。
コードは、https://github.com/SaberaTalukder/TOTEM.comで参照できる。
関連論文リスト
- GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - NuwaTS: a Foundation Model Mending Every Incomplete Time Series [24.768755438620666]
textbfNuwaTSは,事前学習型言語モデルを用いて時系列計算を行う新しいフレームワークである。
NuwaTSは、任意のドメインにまたがる欠落したデータをインプットするために適用することができる。
我々はNuwaTSが予測などの他の時系列タスクに一般化していることを示す。
論文 参考訳(メタデータ) (2024-05-24T07:59:02Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - MOMENT: A Family of Open Time-series Foundation Models [19.0845213853369]
汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
我々は、タイムシリーズパイル(Time series Pile)と呼ばれる公開時系列のコレクションをコンパイルし、時系列固有の課題に体系的に取り組みます。
我々は、様々なタスクやデータセットに関する時系列基礎モデルを、限られた監督設定で評価するためのベンチマークを設計するための最近の作業に基づいて構築する。
論文 参考訳(メタデータ) (2024-02-06T10:48:46Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Large Pre-trained time series models for cross-domain Time series analysis tasks [20.228846068418765]
Large Pre-trained Time-Series Models (LPTM) は、事前トレーニング中に最適なデータセット固有のセグメンテーション戦略を自動的に識別する適応セグメンテーションの新しい手法である。
LPTMは、最先端のベースラインに比べて最大40%データが少なく、トレーニング時間も50%少ない。
論文 参考訳(メタデータ) (2023-11-19T20:16:16Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Few-Shot Forecasting of Time-Series with Heterogeneous Channels [4.635820333232681]
本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
論文 参考訳(メタデータ) (2022-04-07T14:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。