論文の概要: Forging Time Series with Language: A Large Language Model Approach to Synthetic Data Generation
- arxiv url: http://arxiv.org/abs/2505.17103v1
- Date: Wed, 21 May 2025 08:50:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.566197
- Title: Forging Time Series with Language: A Large Language Model Approach to Synthetic Data Generation
- Title(参考訳): 言語による時系列生成: 合成データ生成のための大規模言語モデルアプローチ
- Authors: Cécile Rousseau, Tobia Boschi, Giandomenico Cornacchia, Dhaval Salwala, Alessandra Pascale, Juan Bernabe Moreno,
- Abstract要約: SDForgerは、LLMを使用して高品質な時系列を生成するためのフレームワークである。
生成プロセスでテキストコンディショニングを有効にすることで、SDForgerはマルチモーダルモデリングの道を開く。
- 参考スコア(独自算出の注目度): 37.27425373556378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SDForger is a flexible and efficient framework for generating high-quality multivariate time series using LLMs. Leveraging a compact data representation, SDForger provides synthetic time series generation from a few samples and low-computation fine-tuning of any autoregressive LLM. Specifically, the framework transforms univariate and multivariate signals into tabular embeddings, which are then encoded into text and used to fine-tune the LLM. At inference, new textual embeddings are sampled and decoded into synthetic time series that retain the original data's statistical properties and temporal dynamics. Across a diverse range of datasets, SDForger outperforms existing generative models in many scenarios, both in similarity-based evaluations and downstream forecasting tasks. By enabling textual conditioning in the generation process, SDForger paves the way for multimodal modeling and the streamlined integration of time series with textual information. SDForger source code will be open-sourced soon.
- Abstract(参考訳): SDForgerは、LLMを使用して高品質な多変量時系列を生成するフレキシブルで効率的なフレームワークである。
SDForgerは、コンパクトなデータ表現を活用することで、いくつかのサンプルから合成時系列生成と、任意の自己回帰LDMの低計算微調整を提供する。
具体的には、このフレームワークは単変量および多変量信号を表層埋め込みに変換し、それをテキストにエンコードし、LLMを微調整するために使用する。
推測において、新しいテキスト埋め込みはサンプル化され、元のデータの統計特性と時間的ダイナミクスを保持する合成時系列にデコードされる。
さまざまなデータセットにわたって、SDForgerは、類似性に基づく評価と下流予測タスクの両方において、既存の生成モデルよりも多くのシナリオで優れている。
生成プロセスにおけるテキストコンディショニングを有効にすることにより、SDForgerはマルチモーダルモデリングと、時系列とテキスト情報との合理化を実現する。
SDForgerのソースコードは近くオープンソース化される。
関連論文リスト
- Large Language Models are Few-shot Multivariate Time Series Classifiers [23.045734479292356]
大規模言語モデル (LLM) は時系列解析に広く応用されている。
しかし、数発の分類(すなわち重要な訓練シナリオ)におけるそれらの実用性は過小評価されている。
データ不足を克服するために,LLMの学習済み知識を幅広く活用することを目的としている。
論文 参考訳(メタデータ) (2025-01-30T03:59:59Z) - Time Series Language Model for Descriptive Caption Generation [11.796431549951055]
本稿では,時系列キャプションに特化して設計された新しい時系列言語モデルTSLMを紹介する。
TSLMはエンコーダ・デコーダモデルとして機能し、テキストプロンプトと時系列データ表現の両方を活用する。
TSLMは、複数のデータモダリティから既存の最先端アプローチよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2025-01-03T14:34:30Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - TimeCMA: Towards LLM-Empowered Multivariate Time Series Forecasting via Cross-Modality Alignment [21.690191536424567]
TimeCMAは、時系列予測のための直感的で効果的なフレームワークである。
8つの実際のデータセットに対する大規模な実験は、TimeCMAが最先端のデータセットを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-03T00:27:29Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。