論文の概要: OATS: Online Data Augmentation for Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2601.19040v1
- Date: Mon, 26 Jan 2026 23:51:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.098098
- Title: OATS: Online Data Augmentation for Time Series Foundation Models
- Title(参考訳): OATS: 時系列基礎モデルのためのオンラインデータ拡張
- Authors: Junwei Deng, Chang Xu, Jiaqi W. Ma, Ming Jin, Chenghao Liu, Jiang Bian,
- Abstract要約: 時系列基礎モデル(TSFM)は時間分析の強力なパラダイムであり、しばしばデータ品質を向上させるために合成データ拡張によって強化される。
OATS (Online Data Augmentation for Time Series Foundation Models) は、異なるトレーニング手順に合わせて合成データを生成する基本戦略である。
- 参考スコア(独自算出の注目度): 49.1394215208561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time Series Foundation Models (TSFMs) are a powerful paradigm for time series analysis and are often enhanced by synthetic data augmentation to improve the training data quality. Existing augmentation methods, however, typically rely on heuristics and static paradigms. Motivated by dynamic data optimization, which shows that the contribution of samples varies across training stages, we propose OATS (Online Data Augmentation for Time Series Foundation Models), a principled strategy that generates synthetic data tailored to different training steps. OATS leverages valuable training samples as principled guiding signals and dynamically generates high-quality synthetic data conditioned on them. We further design a diffusion-based framework to produce realistic time series and introduce an explore-exploit mechanism to balance efficiency and effectiveness. Experiments on TSFMs demonstrate that OATS consistently outperforms regular training and yields substantial performance gains over static data augmentation baselines across six validation datasets and two TSFM architectures. The code is available at the link https://github.com/microsoft/TimeCraft.
- Abstract(参考訳): 時系列基礎モデル(TSFM)は時系列解析の強力なパラダイムであり、しばしばデータ品質を向上させるために合成データ拡張によって強化される。
しかし、既存の拡張法は通常、ヒューリスティックスと静的パラダイムに依存している。
動的データ最適化により、サンプルの寄与はトレーニング段階によって異なることを示すとともに、異なるトレーニング段階に合わせて合成データを生成する原則的戦略であるOATS(Online Data Augmentation for Time Series Foundation Models)を提案する。
OATSは、価値あるトレーニングサンプルを原則的な誘導信号として利用し、それらに条件付けされた高品質な合成データを動的に生成する。
さらに,現実的な時系列を生成するための拡散型フレームワークを設計し,効率と効率のバランスをとるための探索・探索機構を導入する。
TSFMの実験では、OATSは通常のトレーニングを一貫して上回り、6つの検証データセットと2つのTSFMアーキテクチャで静的データ拡張ベースラインよりも大幅にパフォーマンスが向上することを示した。
コードはhttps://github.com/microsoft/TimeCraft.comにリンクされている。
関連論文リスト
- Meta-learning to Address Data Shift in Time Series Classification [0.0]
従来のディープラーニング(TDL)モデルは、トレーニングとテストデータが同じ分布を共有する場合、うまく機能する。
実世界のデータのダイナミックな性質は、TDLモデルを高速な性能劣化を招き、コストのかかる緩和と非効率な再トレーニングを必要とする。
本稿では、TDLと微調整および最適化に基づくメタラーニングアルゴリズムを体系的に比較し、データシフトに対処する能力を評価する。
論文 参考訳(メタデータ) (2026-01-13T22:38:43Z) - Robust Tabular Foundation Models [0.7539295827164078]
重要な発見は、TFMは完全に合成データセット上で事前訓練可能であることである。
TFM性能と最高の達成可能な性能の差から得られる最適性ギャップ尺度を導入する。
これらの結果は、合成データのみを用いて、ターゲットとなる敵の訓練とTFMの微調整のための有望な新しいデータセットを浮き彫りにした。
論文 参考訳(メタデータ) (2025-12-02T23:40:39Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - Middo: Model-Informed Dynamic Data Optimization for Enhanced LLM Fine-Tuning via Closed-Loop Learning [44.53583316198435]
Supervised Fine-Tuning (SFT) Large Language Modelsは高品質なトレーニングデータに依存している。
自己進化型モデル駆動動的データ最適化フレームワークであるMiddoを紹介した。
その結果,Middoはシードデータの品質を継続的に向上し,LLMの性能を平均7.15%向上させることができた。
論文 参考訳(メタデータ) (2025-08-29T12:47:27Z) - A Time-Series Data Augmentation Model through Diffusion and Transformer Integration [0.6437284704257459]
ディープニューラルネットワークは通常、トレーニングのために大量のデータを必要とする。
本稿では,Diffusion モデルと Transformer モデルを組み合わせた簡易かつ効率的な手法を提案する。
ベンチマークとして拡張データを適用したモデルの性能向上を利用して,高品質な拡張データを生成する能力を示す。
論文 参考訳(メタデータ) (2025-05-01T09:40:45Z) - Scaling Laws of Synthetic Data for Language Models [125.41600201811417]
プレトレーニングコーパスを多種多様な高品質な合成データセットに変換するスケーラブルなフレームワークであるSynthLLMを紹介した。
提案手法は,グラフアルゴリズムを用いて複数の文書にまたがるハイレベルな概念を自動的に抽出し,再結合することで実現している。
論文 参考訳(メタデータ) (2025-03-25T11:07:12Z) - Multi-Armed Bandit Approach for Optimizing Training on Synthetic Data [7.603659241572307]
動的ユーザビリティ指標と組み合わせた UCB ベースのトレーニング手法を提案する。
提案手法は,合成画像と対応する実・合成データセットからの低レベル・高レベル情報を統合する。
提案手法は, ユーザビリティに基づいて, 合成画像のランク付けに有効な方法であることを示す。
論文 参考訳(メタデータ) (2024-12-06T23:36:36Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。