論文の概要: Time Series Generation Under Data Scarcity: A Unified Generative Modeling Approach
- arxiv url: http://arxiv.org/abs/2505.20446v1
- Date: Mon, 26 May 2025 18:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.252731
- Title: Time Series Generation Under Data Scarcity: A Unified Generative Modeling Approach
- Title(参考訳): データスカシティによる時系列生成:統一生成モデルアプローチ
- Authors: Tal Gonen, Itai Pemper, Ilan Naiman, Nimrod Berman, Omri Azencot,
- Abstract要約: データ・スカース・セッティングにおける主要な生成モデルを評価するための大規模な研究を初めて行った。
本稿では,いくつかの例を用いて高忠実度時系列を合成できる拡散型統合生成フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.631288333466648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative modeling of time series is a central challenge in time series analysis, particularly under data-scarce conditions. Despite recent advances in generative modeling, a comprehensive understanding of how state-of-the-art generative models perform under limited supervision remains lacking. In this work, we conduct the first large-scale study evaluating leading generative models in data-scarce settings, revealing a substantial performance gap between full-data and data-scarce regimes. To close this gap, we propose a unified diffusion-based generative framework that can synthesize high-fidelity time series across diverse domains using just a few examples. Our model is pre-trained on a large, heterogeneous collection of time series datasets, enabling it to learn generalizable temporal representations. It further incorporates architectural innovations such as dynamic convolutional layers for flexible channel adaptation and dataset token conditioning for domain-aware generation. Without requiring abundant supervision, our unified model achieves state-of-the-art performance in few-shot settings-outperforming domain-specific baselines across a wide range of subset sizes. Remarkably, it also surpasses all baselines even when tested on full datasets benchmarks, highlighting the strength of pre-training and cross-domain generalization. We hope this work encourages the community to revisit few-shot generative modeling as a key problem in time series research and pursue unified solutions that scale efficiently across domains. Code is available at https://github.com/azencot-group/ImagenFew.
- Abstract(参考訳): 時系列の生成モデリングは、特にデータスカース条件下での時系列解析における中心的な課題である。
近年のジェネレーティブ・モデリングの進歩にもかかわらず、限られた監督下での最先端のジェネレーティブ・モデルがどのように機能するかの包括的な理解はいまだ不足している。
本研究では,データスカース設定における主要な生成モデルを評価するための大規模な研究を行い,データスカースとフルデータスカース設定間の性能差を明らかにした。
このギャップを埋めるために、いくつかの例を用いて多種多様な領域にまたがる高忠実度時系列を合成できる統合拡散ベース生成フレームワークを提案する。
我々のモデルは、時系列データセットの大規模で異種なコレクションで事前訓練されており、一般化可能な時間表現を学習することができる。
さらに、柔軟なチャネル適応のための動的畳み込み層やドメイン・アウェア・ジェネレーションのためのデータセットトークン・コンディショニングといったアーキテクチャ上の革新も取り入れている。
我々の統一モデルは、十分な監督を必要とせず、幅広いサブセットサイズでドメイン固有のベースラインに優れる数ショット設定において、最先端のパフォーマンスを達成する。
注目すべきは、完全なデータセットベンチマークでテストしても、すべてのベースラインを超え、事前トレーニングとクロスドメインの一般化の強みを強調していることだ。
この取り組みは、時系列研究における重要な問題として、少数の生成モデリングを再考し、ドメインをまたいで効率的にスケールする統一されたソリューションを追求することをコミュニティに促すことを願っている。
コードはhttps://github.com/azencot-group/ImagenFew.comで入手できる。
関連論文リスト
- Towards Generalisable Time Series Understanding Across Domains [10.350643783811174]
時系列の不均一性を扱うために特別に設計された新しい事前学習パラダイムを導入する。
本稿では、学習可能なドメインシグネチャ、二重マスキング戦略、正規化相互相関損失を持つトークンサを提案する。
私たちのコードと事前訓練されたウェイトはhttps://www.oetu.com/oetu/otis.comで公開されています。
論文 参考訳(メタデータ) (2024-10-09T17:09:30Z) - ConvTimeNet: A Deep Hierarchical Fully Convolutional Model for Multivariate Time Series Analysis [7.979501926410114]
ConvTimeNetは時系列解析のために設計された階層的な純粋な畳み込みモデルである。
データ駆動方式で時間依存の基本単位の局所パターンを適応的に知覚する。
大規模なカーネル機構を使用して、畳み込みブロックが深く積み重ねられるようにする。
論文 参考訳(メタデータ) (2024-03-03T12:05:49Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。