論文の概要: OATS: Online Data Augmentation for Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2601.19040v1
- Date: Mon, 26 Jan 2026 23:51:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.098098
- Title: OATS: Online Data Augmentation for Time Series Foundation Models
- Title(参考訳): OATS: 時系列基礎モデルのためのオンラインデータ拡張
- Authors: Junwei Deng, Chang Xu, Jiaqi W. Ma, Ming Jin, Chenghao Liu, Jiang Bian,
- Abstract要約: 時系列基礎モデル(TSFM)は時間分析の強力なパラダイムであり、しばしばデータ品質を向上させるために合成データ拡張によって強化される。
OATS (Online Data Augmentation for Time Series Foundation Models) は、異なるトレーニング手順に合わせて合成データを生成する基本戦略である。
- 参考スコア(独自算出の注目度): 49.1394215208561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time Series Foundation Models (TSFMs) are a powerful paradigm for time series analysis and are often enhanced by synthetic data augmentation to improve the training data quality. Existing augmentation methods, however, typically rely on heuristics and static paradigms. Motivated by dynamic data optimization, which shows that the contribution of samples varies across training stages, we propose OATS (Online Data Augmentation for Time Series Foundation Models), a principled strategy that generates synthetic data tailored to different training steps. OATS leverages valuable training samples as principled guiding signals and dynamically generates high-quality synthetic data conditioned on them. We further design a diffusion-based framework to produce realistic time series and introduce an explore-exploit mechanism to balance efficiency and effectiveness. Experiments on TSFMs demonstrate that OATS consistently outperforms regular training and yields substantial performance gains over static data augmentation baselines across six validation datasets and two TSFM architectures. The code is available at the link https://github.com/microsoft/TimeCraft.
- Abstract(参考訳): 時系列基礎モデル(TSFM)は時系列解析の強力なパラダイムであり、しばしばデータ品質を向上させるために合成データ拡張によって強化される。
しかし、既存の拡張法は通常、ヒューリスティックスと静的パラダイムに依存している。
動的データ最適化により、サンプルの寄与はトレーニング段階によって異なることを示すとともに、異なるトレーニング段階に合わせて合成データを生成する原則的戦略であるOATS(Online Data Augmentation for Time Series Foundation Models)を提案する。
OATSは、価値あるトレーニングサンプルを原則的な誘導信号として利用し、それらに条件付けされた高品質な合成データを動的に生成する。
さらに,現実的な時系列を生成するための拡散型フレームワークを設計し,効率と効率のバランスをとるための探索・探索機構を導入する。
TSFMの実験では、OATSは通常のトレーニングを一貫して上回り、6つの検証データセットと2つのTSFMアーキテクチャで静的データ拡張ベースラインよりも大幅にパフォーマンスが向上することを示した。
コードはhttps://github.com/microsoft/TimeCraft.comにリンクされている。
関連論文リスト
- Middo: Model-Informed Dynamic Data Optimization for Enhanced LLM Fine-Tuning via Closed-Loop Learning [44.53583316198435]
Supervised Fine-Tuning (SFT) Large Language Modelsは高品質なトレーニングデータに依存している。
自己進化型モデル駆動動的データ最適化フレームワークであるMiddoを紹介した。
その結果,Middoはシードデータの品質を継続的に向上し,LLMの性能を平均7.15%向上させることができた。
論文 参考訳(メタデータ) (2025-08-29T12:47:27Z) - Scaling Laws of Synthetic Data for Language Models [125.41600201811417]
プレトレーニングコーパスを多種多様な高品質な合成データセットに変換するスケーラブルなフレームワークであるSynthLLMを紹介した。
提案手法は,グラフアルゴリズムを用いて複数の文書にまたがるハイレベルな概念を自動的に抽出し,再結合することで実現している。
論文 参考訳(メタデータ) (2025-03-25T11:07:12Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。