論文の概要: MOMENT: A Family of Open Time-series Foundation Models
- arxiv url: http://arxiv.org/abs/2402.03885v1
- Date: Tue, 6 Feb 2024 10:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 15:16:57.479839
- Title: MOMENT: A Family of Open Time-series Foundation Models
- Title(参考訳): MOMENT: オープン時系列ファウンデーションモデルのファミリー
- Authors: Mononito Goswami, Konrad Szafer, Arjun Choudhry, Yifu Cai, Shuo Li,
Artur Dubrawski
- Abstract要約: 汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
我々はTime-Series Pileと呼ばれる公開時系列のコレクションをコンパイルし、時系列固有の課題に体系的に取り組みます。
我々は、様々なタスクやデータセットの時系列基礎モデルを評価するためのベンチマークを、限られた監督設定で設計する最近の作業に基づいて構築する。
- 参考スコア(独自算出の注目度): 20.22226080222649
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce MOMENT, a family of open-source foundation models for
general-purpose time-series analysis. Pre-training large models on time-series
data is challenging due to (1) the absence of a large and cohesive public
time-series repository, and (2) diverse time-series characteristics which make
multi-dataset training onerous. Additionally, (3) experimental benchmarks to
evaluate these models, especially in scenarios with limited resources, time,
and supervision, are still in their nascent stages. To address these
challenges, we compile a large and diverse collection of public time-series,
called the Time-series Pile, and systematically tackle time-series-specific
challenges to unlock large-scale multi-dataset pre-training. Finally, we build
on recent work to design a benchmark to evaluate time-series foundation models
on diverse tasks and datasets in limited supervision settings. Experiments on
this benchmark demonstrate the effectiveness of our pre-trained models with
minimal data and task-specific fine-tuning. Finally, we present several
interesting empirical observations about large pre-trained time-series models.
Our code is available anonymously at anonymous.4open.science/r/BETT-773F/.
- Abstract(参考訳): 汎用時系列解析のためのオープンソース基盤モデルのファミリであるMOMENTを紹介する。
時系列データの事前学習は,(1)大規模かつ密集した公開時系列リポジトリの欠如,(2)マルチデータセットトレーニングを煩雑なものにする多様な時系列特性のため,困難である。
さらに、(3)これらのモデルを評価するための実験的ベンチマーク、特にリソース、時間、監督が限られているシナリオは、まだ初期段階にある。
これらの課題に対処するため、私たちはTime-Series Pileと呼ばれる、多種多様な公開時系列コレクションをコンパイルし、大規模マルチデータセット事前トレーニングをアンロックするための時系列固有の課題に体系的に取り組む。
最後に,様々なタスクやデータセットの時系列基礎モデル評価のためのベンチマークを,限定的な監督設定で設計する。
このベンチマーク実験は、最小限のデータとタスク固有の微調整による事前学習モデルの有効性を示す。
最後に,大規模な事前学習型時系列モデルについて興味深い経験的観察を行った。
我々のコードは匿名で.4open.science/r/BETT-773F/で入手できる。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - A Survey of Time Series Foundation Models: Generalizing Time Series Representation with Large Language Model [33.17908422599714]
大規模な言語基盤モデルは、クロスタスク転送性、ゼロショット/フェーショット学習、意思決定説明性といった機能を公開した。
主な研究線は2つあり、例えば、時系列のためにゼロから事前訓練された基礎モデルと、時系列のために大きな言語基盤モデルを適用することである。
本調査は,関連研究の総合的な調査を行うための3E分析フレームワークを提供する。
論文 参考訳(メタデータ) (2024-05-03T03:12:55Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。