論文の概要: Evaluating Time Series Foundation Models on Noisy Periodic Time Series
- arxiv url: http://arxiv.org/abs/2501.00889v2
- Date: Wed, 08 Jan 2025 14:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:12:18.402747
- Title: Evaluating Time Series Foundation Models on Noisy Periodic Time Series
- Title(参考訳): ノイズ周期時系列に基づく時系列基礎モデルの評価
- Authors: Syamantak Datta Gupta,
- Abstract要約: 本稿では,雑音周期時系列を構成する2つのデータセットに対して,時系列基礎モデル(TSFM)の性能を評価する実験的検討を行った。
以上の結果から, TSFMは, 周期が制限された時系列に対して, より長い時間, 高い雑音レベル, サンプリング率, より複雑な時系列形状で予測能力が低下することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While recent advancements in foundation models have significantly impacted machine learning, rigorous tests on the performance of time series foundation models (TSFMs) remain largely underexplored. This paper presents an empirical study evaluating the zero-shot, long-horizon forecasting abilities of several leading TSFMs over two synthetic datasets constituting noisy periodic time series. We assess model efficacy across different noise levels, underlying frequencies, and sampling rates. As benchmarks for comparison, we choose two statistical techniques: a Fourier transform (FFT)-based approach and a linear autoregressive (AR) model. Our findings demonstrate that while for time series with bounded periods and higher sampling rates, TSFMs can match or outperform the statistical approaches, their forecasting abilities deteriorate with longer periods, higher noise levels, lower sampling rates and more complex shapes of the time series.
- Abstract(参考訳): 近年のファンデーションモデルの進歩は機械学習に大きな影響を与えているが、時系列ファンデーションモデル(TSFM)の性能に関する厳密な試験はほとんど未定である。
本稿では,雑音周期時系列を構成する2つの合成データセットに対して,複数の先行TSFMのゼロショット長水平予測能力を評価する実験的検討を行った。
異なる雑音レベル、基礎周波数、サンプリングレートのモデルの有効性を評価する。
比較のためのベンチマークとして、フーリエ変換(FFT)に基づくアプローチと線形自己回帰(AR)モデルという2つの統計手法を選択する。
本研究は, 時間境界とサンプリング率の高い時系列において, TSFMは, より長い時間, 高いノイズレベル, サンプリングレートの低下, より複雑な時系列形状で予測能力が低下することを示す。
関連論文リスト
- Empowering Time Series Analysis with Synthetic Data: A Survey and Outlook in the Era of Foundation Models [104.17057231661371]
時系列解析は複雑なシステムの力学を理解するために重要である。
基本モデルの最近の進歩はタスク非依存の時系列基礎モデル (TSFM) と大規模言語モデルベース時系列モデル (TSLLM) につながっている。
彼らの成功は、規制、多様性、品質、量制約のために構築が困難である、大規模で多様で高品質なデータセットに依存する。
本調査では,TSFMとTLLLMの合成データの総合的なレビュー,データ生成戦略の分析,モデル事前学習におけるそれらの役割,微調整,評価,今後の研究方向性の特定について述べる。
論文 参考訳(メタデータ) (2025-03-14T13:53:46Z) - MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - TimePFN: Effective Multivariate Time Series Forecasting with Synthetic Data [22.458320848520042]
TimePFNは、ベイズ推定の近似を目的としたPFN(Presideed-data Fitted Networks)の概念に基づいている。
我々は、いくつかのベンチマークデータセット上でTimePFNを評価し、MSS予測のための既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-22T16:55:14Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - FM-TS: Flow Matching for Time Series Generation [71.31148785577085]
本稿では、時系列生成のための修正フローマッチングベースのフレームワークFM-TSを紹介する。
FM-TSは、トレーニングと推論の点でより効率的である。
我々は、太陽予測とMuJoCo計算タスクにおいて優れた性能を達成した。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Retrieval-Augmented Diffusion Models for Time Series Forecasting [19.251274915003265]
検索時間拡張拡散モデル(RATD)を提案する。
RATDは埋め込みベースの検索プロセスと参照誘導拡散モデルという2つの部分から構成される。
当社のアプローチでは,データベース内の意味のあるサンプルを活用することで,サンプリングを支援し,データセットの利用を最大化することが可能です。
論文 参考訳(メタデータ) (2024-10-24T13:14:39Z) - FDF: Flexible Decoupled Framework for Time Series Forecasting with Conditional Denoising and Polynomial Modeling [5.770377200028654]
時系列予測は多くのWebアプリケーションにおいて不可欠であり、業界全体で重要な意思決定に影響を与える。
我々は拡散モデルが大きな欠点に悩まされていることを論じる。
予測性能を向上させるために,高品質な時系列表現を学習するフレキシブルデカップリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-17T06:20:43Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Understanding Different Design Choices in Training Large Time Series Models [71.20102277299445]
不均一な時系列データに基づく大規模時系列モデル(LTSMs)のトレーニングには,ユニークな課題が伴う。
本稿では,時系列データに合わせた新しい統計プロンプトである,時系列プロンプトを提案する。
textttLTSM-bundleを導入します。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - CLeaRForecast: Contrastive Learning of High-Purity Representations for
Time Series Forecasting [2.5816901096123863]
時系列予測(TSF)は現代社会において重要であり、多くの領域にまたがっている。
従来の表現学習に基づくTSFアルゴリズムは、典型的には、分離された傾向周期表現を特徴とする対照的な学習パラダイムを取り入れている。
CLeaRForecastは,高純度時系列表現をサンプル,特徴量,アーキテクチャ浄化手法を用いて学習するための,新しいコントラスト学習フレームワークである。
論文 参考訳(メタデータ) (2023-12-10T04:37:43Z) - Exploring Progress in Multivariate Time Series Forecasting: Comprehensive Benchmarking and Heterogeneity Analysis [70.78170766633039]
我々は、MTS予測提案を確実かつ公平に評価する手段の必要性に対処する。
BasicTS+は、MTS予測ソリューションの公平で包括的で再現可能な比較を可能にするために設計されたベンチマークである。
リッチデータセットとともにBasicTS+を適用し,45 MTS以上の予測ソリューションの性能を評価する。
論文 参考訳(メタデータ) (2023-10-09T19:52:22Z) - Voice2Series: Reprogramming Acoustic Models for Time Series
Classification [65.94154001167608]
Voice2Seriesは、時系列分類のための音響モデルをプログラムする新しいエンドツーエンドアプローチである。
V2Sは20のタスクで性能が優れるか、最先端のメソッドと結びついているかを示し、平均精度を1.84%向上させる。
論文 参考訳(メタデータ) (2021-06-17T07:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。