論文の概要: TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
- arxiv url: http://arxiv.org/abs/2402.16412v1
- Date: Mon, 26 Feb 2024 09:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:53:09.012694
- Title: TOTEM: TOkenized Time Series EMbeddings for General Time Series Analysis
- Title(参考訳): TOTEM:一般時系列解析のためのTokenized Time Series EMbeddings
- Authors: Sabera Talukder and Yisong Yue and Georgia Gkioxari
- Abstract要約: 本稿では,自己教師型で学習した離散ベクトル化表現を用いて,様々な領域からの時系列データを埋め込んだ簡易なトークン化アーキテクチャを提案する。
3つのタスクにわたる17のリアルタイム時系列データセットに対して,TOTEMの有効性を広範囲に評価して検討した。
- 参考スコア(独自算出の注目度): 32.854449155765344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of general time series analysis has recently begun to explore
unified modeling, where a common architectural backbone can be retrained on a
specific task for a specific dataset. In this work, we approach unification
from a complementary vantage point: unification across tasks and domains. To
this end, we explore the impact of discrete, learnt, time series data
representations that enable generalist, cross-domain training. Our method,
TOTEM, or TOkenized Time Series EMbeddings, proposes a simple tokenizer
architecture that embeds time series data from varying domains using a discrete
vectorized representation learned in a self-supervised manner. TOTEM works
across multiple tasks and domains with minimal to no tuning. We study the
efficacy of TOTEM with an extensive evaluation on 17 real world time series
datasets across 3 tasks. We evaluate both the specialist (i.e., training a
model on each domain) and generalist (i.e., training a single model on many
domains) settings, and show that TOTEM matches or outperforms previous best
methods on several popular benchmarks. The code can be found at:
https://github.com/SaberaTalukder/TOTEM.
- Abstract(参考訳): 一般的な時系列解析の分野は、最近、特定のデータセットの特定のタスクで共通のアーキテクチャのバックボーンを再トレーニングできる統一モデリングを探求し始めている。
本研究では,タスクとドメイン間の統一という,相補的優位点から統一にアプローチする。
この目的のために、汎用的なクロスドメイントレーニングを可能にする離散的、学習的、時系列データ表現の影響について検討する。
本手法,TOTEM,Tokenized Time Series EMbeddings は,自己教師型で学習した離散ベクトル化表現を用いて,様々な領域からの時系列データを埋め込んだ単純なトークン化アーキテクチャを提案する。
TOTEMは、最小限から無チューニングで、複数のタスクやドメインで動作します。
3つのタスクにわたる17のリアルタイム時系列データセットに対して,TOTEMの有効性を広範囲に評価して検討した。
我々は、専門家(各ドメイン上でモデルをトレーニングする)とジェネラリスト(複数のドメイン上で単一モデルをトレーニングする)の両方の設定を評価し、TOTEMがいくつかの人気のあるベンチマークにおいて、以前のベストメソッドにマッチするか、より優れていることを示す。
コードは、https://github.com/SaberaTalukder/TOTEM.comで参照できる。
関連論文リスト
- Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - Capturing Temporal Components for Time Series Classification [5.70772577110828]
本研究では,逐次データから抽出した統計的コヒーレントな成分に基づいて学習したテキスト合成表現学習手法を提案する。
マルチスケールな変更空間に基づいて、シーケンシャルデータを類似の統計特性を持つチャンクに分割する教師なしの手法を提案する。
シーケンスベースのエンコーダモデルをマルチタスク設定でトレーニングし、時系列分類のための時間成分から合成表現を学習する。
論文 参考訳(メタデータ) (2024-06-20T16:15:21Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - NuwaTS: a Foundation Model Mending Every Incomplete Time Series [24.768755438620666]
textbfNuwaTSは,事前学習型言語モデルを用いて時系列計算を行う新しいフレームワークである。
NuwaTSは、任意のドメインにまたがる欠落したデータをインプットするために適用することができる。
我々はNuwaTSが予測などの他の時系列タスクに一般化していることを示す。
論文 参考訳(メタデータ) (2024-05-24T07:59:02Z) - UniCL: A Universal Contrastive Learning Framework for Large Time Series Models [18.005358506435847]
時系列分析は、金融から医療まで、さまざまな重要なアプリケーションにおいて重要な役割を果たす。
従来の教師付き学習手法は、まず各タスクにおける時系列データの広範なラベルを注釈付けする。
本稿では,時系列基礎モデルの事前学習を目的とした,普遍的でスケーラブルなコントラスト学習フレームワークUniCLを紹介する。
論文 参考訳(メタデータ) (2024-05-17T07:47:11Z) - Large Pre-trained time series models for cross-domain Time series analysis tasks [20.228846068418765]
本稿では,事前学習中に最適なデータセット固有のセグメンテーション戦略を自動的に識別する,テクスタイディショナルセグメンテーションの新たな手法を提案する。
これにより、異なるダウンストリーム時系列分析タスクに微調整され、ゼロショット設定下では、LPTMはドメイン固有の最先端モデルと同等かそれ以上の性能を発揮する。
論文 参考訳(メタデータ) (2023-11-19T20:16:16Z) - Temporal Treasure Hunt: Content-based Time Series Retrieval System for
Discovering Insights [34.1973242428317]
時系列データは、金融、医療、製造業など、さまざまな分野にまたがっている。
Content-based Time Series Retrieval(CTSR)を実行する能力は、未知の時系列例を特定する上で重要である。
我々は,様々な領域の時系列データを含むCTSRベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-11-05T04:12:13Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - Time Series Analysis via Network Science: Concepts and Algorithms [62.997667081978825]
本稿では,時系列をネットワークに変換する既存のマッピング手法について概観する。
我々は、主要な概念的アプローチを説明し、権威的な参照を提供し、統一された表記法と言語におけるそれらの利点と限界について洞察を与える。
ごく最近の研究だが、この研究領域には大きな可能性を秘めており、今後の研究の道を開くことを目的としている。
論文 参考訳(メタデータ) (2021-10-11T13:33:18Z) - Simple multi-dataset detection [83.9604523643406]
複数の大規模データセット上で統合検出器を訓練する簡単な方法を提案する。
データセット固有のアウトプットを共通の意味分類に自動的に統合する方法を示す。
私たちのアプローチは手動の分類学の調整を必要としません。
論文 参考訳(メタデータ) (2021-02-25T18:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。