論文の概要: T2S: High-resolution Time Series Generation with Text-to-Series Diffusion Models
- arxiv url: http://arxiv.org/abs/2505.02417v2
- Date: Thu, 08 May 2025 08:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 13:13:47.803968
- Title: T2S: High-resolution Time Series Generation with Text-to-Series Diffusion Models
- Title(参考訳): T2S:テキスト・ツー・シリーズ拡散モデルを用いた高分解能時系列生成
- Authors: Yunfeng Ge, Jiawei Li, Yiji Zhao, Haomin Wen, Zhao Li, Meikang Qiu, Hongyan Li, Ming Jin, Shirui Pan,
- Abstract要約: 自然言語と時系列のギャップを埋める拡散ベースのフレームワークであるText-to-Series (T2S)を紹介した。
T2Sは長さ適応型変分オートエンコーダを用いて、様々な長さの時系列を一貫した潜伏埋め込みに符号化する。
我々は、T2Sを複数の長さでインターリーブされたパラダイムで訓練し、任意の所望の長さのシーケンスを生成する。
- 参考スコア(独自算出の注目度): 51.08566687549047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Time Series generation holds significant potential to address challenges such as data sparsity, imbalance, and limited availability of multimodal time series datasets across domains. While diffusion models have achieved remarkable success in Text-to-X (e.g., vision and audio data) generation, their use in time series generation remains in its nascent stages. Existing approaches face two critical limitations: (1) the lack of systematic exploration of general-proposed time series captions, which are often domain-specific and struggle with generalization; and (2) the inability to generate time series of arbitrary lengths, limiting their applicability to real-world scenarios. In this work, we first categorize time series captions into three levels: point-level, fragment-level, and instance-level. Additionally, we introduce a new fragment-level dataset containing over 600,000 high-resolution time series-text pairs. Second, we propose Text-to-Series (T2S), a diffusion-based framework that bridges the gap between natural language and time series in a domain-agnostic manner. T2S employs a length-adaptive variational autoencoder to encode time series of varying lengths into consistent latent embeddings. On top of that, T2S effectively aligns textual representations with latent embeddings by utilizing Flow Matching and employing Diffusion Transformer as the denoiser. We train T2S in an interleaved paradigm across multiple lengths, allowing it to generate sequences of any desired length. Extensive evaluations demonstrate that T2S achieves state-of-the-art performance across 13 datasets spanning 12 domains.
- Abstract(参考訳): テキスト・トゥ・タイム・シリーズ生成は、データの分散性、不均衡、ドメイン間でのマルチモーダル・時系列データセットの可用性の制限といった課題に対処するための大きな可能性を秘めている。
拡散モデルは、Text-to-X(例えば、視覚とオーディオデータ)生成において顕著な成功を収めてきたが、時系列生成におけるそれらの使用は、まだ初期段階にある。
既存のアプローチは,(1)ドメイン固有で一般化に苦しむ一般的な時系列キャプションの体系的な探索の欠如,(2)任意の長さの時系列を生成することができないこと,そして,現実のシナリオに適用可能であること,の2つの限界に直面している。
本稿ではまず,時系列キャプションをポイントレベル,フラグメントレベル,インスタンスレベルという3つのレベルに分類する。
さらに、60,000以上の高分解能時系列テキストペアを含む新しいフラグメントレベルデータセットを導入する。
第2に、自然言語と時系列のギャップをドメインに依存しない方法で橋渡しする拡散ベースのフレームワークであるText-to-Series (T2S)を提案する。
T2Sは長さ適応型変分オートエンコーダを用いて、様々な長さの時系列を一貫した潜伏埋め込みに符号化する。
それに加えて、T2SはFlow Matchingを活用してDiffusion Transformerをデノイザとして使用することにより、テキスト表現と潜在埋め込みを効果的に整合させる。
我々は、T2Sを複数の長さでインターリーブされたパラダイムで訓練し、任意の所望の長さのシーケンスを生成する。
大規模な評価では、T2Sは12ドメインにまたがる13のデータセットにわたる最先端のパフォーマンスを達成している。
関連論文リスト
- Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - Time Series Language Model for Descriptive Caption Generation [11.796431549951055]
本稿では,時系列キャプションに特化して設計された新しい時系列言語モデルTSLMを紹介する。
TSLMはエンコーダ・デコーダモデルとして機能し、テキストプロンプトと時系列データ表現の両方を活用する。
TSLMは、複数のデータモダリティから既存の最先端アプローチよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2025-01-03T14:34:30Z) - TS-HTFA: Advancing Time Series Forecasting via Hierarchical Text-Free Alignment with Large Language Models [14.411646409316624]
時系列予測の新しい手法である textbfHierarchical textbfText-textbfFree textbfAlignment (textbfTS-HTFA) を導入する。
我々は、QR分解語埋め込みと学習可能なプロンプトに基づいて、ペア化されたテキストデータを適応的な仮想テキストに置き換える。
複数の時系列ベンチマークの実験は、HTFAが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2024-09-23T12:57:24Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Learning Gaussian Mixture Representations for Tensor Time Series
Forecasting [8.31607451942671]
我々は、時間、位置、およびソース変数に暗示される各不均一成分を個別にモデル化する新しいTS予測フレームワークを開発する。
2つの実世界のTSデータセットによる実験結果は、最先端のベースラインと比較して、我々のアプローチの優位性を検証する。
論文 参考訳(メタデータ) (2023-06-01T06:50:47Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Expressing Multivariate Time Series as Graphs with Time Series Attention
Transformer [14.172091921813065]
多変量時系列表現学習のための時系列注意変換器(TSAT)を提案する。
TSATを用いて、エッジ強化された動的グラフの観点から、時系列の時間情報と相互依存の両方を表現している。
TSATは、様々な予測地平線において、最先端の6つのベースライン法より明らかに優れていることを示す。
論文 参考訳(メタデータ) (2022-08-19T12:25:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。