論文の概要: TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
- arxiv url: http://arxiv.org/abs/2402.16412v1
- Date: Mon, 26 Feb 2024 09:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:53:09.012694
- Title: TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
- Title(参考訳): TOTEM:一般時系列解析のためのTokenized Time Series EMbeddings
- Authors: Sabera Talukder and Yisong Yue and Georgia Gkioxari
- Abstract要約: 本稿では,自己教師型で学習した離散ベクトル化表現を用いて,様々な領域からの時系列データを埋め込んだ簡易なトークン化アーキテクチャを提案する。
3つのタスクにわたる17のリアルタイム時系列データセットに対して,TOTEMの有効性を広範囲に評価して検討した。
- 参考スコア(独自算出の注目度): 32.854449155765344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of general time series analysis has recently begun to explore
unified modeling, where a common architectural backbone can be retrained on a
specific task for a specific dataset. In this work, we approach unification
from a complementary vantage point: unification across tasks and domains. To
this end, we explore the impact of discrete, learnt, time series data
representations that enable generalist, cross-domain training. Our method,
TOTEM, or TOkenized Time Series EMbeddings, proposes a simple tokenizer
architecture that embeds time series data from varying domains using a discrete
vectorized representation learned in a self-supervised manner. TOTEM works
across multiple tasks and domains with minimal to no tuning. We study the
efficacy of TOTEM with an extensive evaluation on 17 real world time series
datasets across 3 tasks. We evaluate both the specialist (i.e., training a
model on each domain) and generalist (i.e., training a single model on many
domains) settings, and show that TOTEM matches or outperforms previous best
methods on several popular benchmarks. The code can be found at:
https://github.com/SaberaTalukder/TOTEM.
- Abstract(参考訳): 一般的な時系列解析の分野は、最近、特定のデータセットの特定のタスクで共通のアーキテクチャのバックボーンを再トレーニングできる統一モデリングを探求し始めている。
本研究では,タスクとドメイン間の統一という,相補的優位点から統一にアプローチする。
この目的のために、汎用的なクロスドメイントレーニングを可能にする離散的、学習的、時系列データ表現の影響について検討する。
本手法,TOTEM,Tokenized Time Series EMbeddings は,自己教師型で学習した離散ベクトル化表現を用いて,様々な領域からの時系列データを埋め込んだ単純なトークン化アーキテクチャを提案する。
TOTEMは、最小限から無チューニングで、複数のタスクやドメインで動作します。
3つのタスクにわたる17のリアルタイム時系列データセットに対して,TOTEMの有効性を広範囲に評価して検討した。
我々は、専門家(各ドメイン上でモデルをトレーニングする)とジェネラリスト(複数のドメイン上で単一モデルをトレーニングする)の両方の設定を評価し、TOTEMがいくつかの人気のあるベンチマークにおいて、以前のベストメソッドにマッチするか、より優れていることを示す。
コードは、https://github.com/SaberaTalukder/TOTEM.comで参照できる。
関連論文リスト
- Chronos: Learning the Language of Time Series [79.45082787390962]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - UniTS: Building a Unified Time Series Model [33.564227351098005]
UNITSは統一された時系列モデルであり、普遍的なタスク仕様、分類の調整、予測、計算、異常検出タスクをサポートする。
38のマルチドメインデータセットにまたがって、UNITSはタスク固有のモデルや自然言語ベースのLLMよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-29T21:25:58Z) - Large Pre-trained time series models for cross-domain Time series
analysis tasks [23.897701882327972]
本稿では,事前学習中に最適なデータセット特定セグメンテーション戦略を自動的に識別する新しいモデルLPTMを提案する。
LPTMは、ドメイン固有の最先端モデルと同等かそれ以上のパフォーマンスを提供し、データよりもはるかに多く、最大40%のデータを取り込み、50%のトレーニング時間を効率よく処理する。
論文 参考訳(メタデータ) (2023-11-19T20:16:16Z) - Temporal Treasure Hunt: Content-based Time Series Retrieval System for
Discovering Insights [34.1973242428317]
時系列データは、金融、医療、製造業など、さまざまな分野にまたがっている。
Content-based Time Series Retrieval(CTSR)を実行する能力は、未知の時系列例を特定する上で重要である。
我々は,様々な領域の時系列データを含むCTSRベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-11-05T04:12:13Z) - Toward a Foundation Model for Time Series Data [34.1973242428317]
基礎モデルは、大規模で多様なデータセットに基づいてトレーニングされた機械学習モデルである。
複数のドメインのラベルのないサンプルを活用することで,効率的な時系列基礎モデルを構築する。
論文 参考訳(メタデータ) (2023-10-05T21:44:50Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Few-Shot Forecasting of Time-Series with Heterogeneous Channels [4.635820333232681]
本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
論文 参考訳(メタデータ) (2022-04-07T14:02:15Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - Time Series Analysis via Network Science: Concepts and Algorithms [62.997667081978825]
本稿では,時系列をネットワークに変換する既存のマッピング手法について概観する。
我々は、主要な概念的アプローチを説明し、権威的な参照を提供し、統一された表記法と言語におけるそれらの利点と限界について洞察を与える。
ごく最近の研究だが、この研究領域には大きな可能性を秘めており、今後の研究の道を開くことを目的としている。
論文 参考訳(メタデータ) (2021-10-11T13:33:18Z) - Deep Autoregressive Models with Spectral Attention [74.08846528440024]
本稿では,深部自己回帰モデルとスペクトル注意(SA)モジュールを組み合わせた予測アーキテクチャを提案する。
時系列の埋め込みをランダムなプロセスの発生としてスペクトル領域に特徴付けることにより,グローバルな傾向と季節パターンを同定することができる。
時系列に対するグローバルとローカルの2つのスペクトルアテンションモデルは、この情報を予測の中に統合し、スペクトルフィルタリングを行い、時系列のノイズを除去する。
論文 参考訳(メタデータ) (2021-07-13T11:08:47Z) - Simple multi-dataset detection [83.9604523643406]
複数の大規模データセット上で統合検出器を訓練する簡単な方法を提案する。
データセット固有のアウトプットを共通の意味分類に自動的に統合する方法を示す。
私たちのアプローチは手動の分類学の調整を必要としません。
論文 参考訳(メタデータ) (2021-02-25T18:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。