論文の概要: Less Is More: Generating Time Series with LLaMA-Style Autoregression in Simple Factorized Latent Spaces
- arxiv url: http://arxiv.org/abs/2511.04973v1
- Date: Fri, 07 Nov 2025 04:15:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.674403
- Title: Less Is More: Generating Time Series with LLaMA-Style Autoregression in Simple Factorized Latent Spaces
- Title(参考訳): LLaMA-Style Autoregression を用いた簡易因数分解潜在空間における時系列生成
- Authors: Siyuan Li, Yifan Sun, Lei Cheng, Lewen Wang, Yang Liu, Weiqing Liu, Jianlong Li, Jiang Bian, Shikai Fang,
- Abstract要約: 離散化された量子化潜在空間上の自己回帰変換器と不整合分解を結合して時系列を生成する,シンプルで効果的なフレームワークであるFAR-TSを提案する。
LLaMAスタイルの自己回帰変換器はこれらのトークンシーケンスをモデル化し、任意の長さで高速かつ制御可能なシーケンスの生成を可能にする。
- 参考スコア(独自算出の注目度): 29.349850914912846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models for multivariate time series are essential for data augmentation, simulation, and privacy preservation, yet current state-of-the-art diffusion-based approaches are slow and limited to fixed-length windows. We propose FAR-TS, a simple yet effective framework that combines disentangled factorization with an autoregressive Transformer over a discrete, quantized latent space to generate time series. Each time series is decomposed into a data-adaptive basis that captures static cross-channel correlations and temporal coefficients that are vector-quantized into discrete tokens. A LLaMA-style autoregressive Transformer then models these token sequences, enabling fast and controllable generation of sequences with arbitrary length. Owing to its streamlined design, FAR-TS achieves orders-of-magnitude faster generation than Diffusion-TS while preserving cross-channel correlations and an interpretable latent space, enabling high-quality and flexible time series synthesis.
- Abstract(参考訳): 多変量時系列の生成モデルはデータ拡張、シミュレーション、プライバシー保護に不可欠であるが、現在の拡散に基づくアプローチは遅く、固定長のウィンドウに限られている。
離散化された量子化潜在空間上の自己回帰変換器と不整合分解を結合して時系列を生成する,シンプルで効果的なフレームワークであるFAR-TSを提案する。
各時系列は、ベクトル量子化された静的なチャネル間相関と時間係数を離散トークンにキャプチャするデータ適応基底に分解される。
LLaMAスタイルの自己回帰変換器はこれらのトークンシーケンスをモデル化し、任意の長さで高速かつ制御可能なシーケンスの生成を可能にする。
合理化設計のため、FAR-TSはDiffusion-TSよりも高速なオーダー・オブ・マグニチュードを生成すると同時に、チャネル間の相関と解釈可能な潜在空間を保持し、高品質でフレキシブルな時系列合成を可能にする。
関連論文リスト
- Conv-like Scale-Fusion Time Series Transformer: A Multi-Scale Representation for Variable-Length Long Time Series [10.93942806756288]
トランスフォーマーベースのモデルには高度な時系列タスクがあるが、特徴冗長性と限定的な一般化機能に苦慮している。
本稿では,Conv-like ScaleFusion Transformerに基づくマルチスケール表現学習フレームワークを提案する。
我々のフレームワークは,最先端手法と比較して,優れた特徴独立性,冗長性の低減,予測および分類タスクの性能向上を実現している。
論文 参考訳(メタデータ) (2025-09-22T14:37:59Z) - MFRS: A Multi-Frequency Reference Series Approach to Scalable and Accurate Time-Series Forecasting [51.94256702463408]
時系列予測は、周波数の異なる周期特性から導かれる。
マルチ周波数参照系列相関解析に基づく新しい時系列予測手法を提案する。
主要なオープンデータセットと合成データセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-11T11:40:14Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - TSLANet: Rethinking Transformers for Time Series Representation Learning [19.795353886621715]
時系列データは、その固有の長短の依存関係によって特徴づけられる。
本稿では,時系列タスクの普遍的畳み込みモデルとして,新しい時系列軽量ネットワーク(TSLANet)を導入する。
我々の実験では、TSLANetは分類、予測、異常検出にまたがる様々なタスクにおいて最先端のモデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-04-12T13:41:29Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。