論文の概要: TS-Diffusion: Generating Highly Complex Time Series with Diffusion
Models
- arxiv url: http://arxiv.org/abs/2311.03303v1
- Date: Mon, 6 Nov 2023 17:52:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:21:28.659588
- Title: TS-Diffusion: Generating Highly Complex Time Series with Diffusion
Models
- Title(参考訳): TS拡散:拡散モデルを用いた複雑時系列生成
- Authors: Yangming Li
- Abstract要約: 我々は、サンプリング不規則性、欠如、大きな特徴時間次元を含む3つの共通の悪い性質を持つ時系列のクラスを考える。
このような複雑な時系列を処理するための一般モデルTS-Diffusionを導入する。
我々は、複数の時系列データセットについて広範な実験を行い、TS-Diffusionが従来の時系列と複雑な時系列の両方で優れた結果が得られることを示した。
- 参考スコア(独自算出の注目度): 12.646560434352478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current generative models have achieved promising performances in
time-series synthesis, they either make strong assumptions on the data format
(e.g., regularities) or rely on pre-processing approaches (e.g.,
interpolations) to simplify the raw data. In this work, we consider a class of
time series with three common bad properties, including sampling
irregularities, missingness, and large feature-temporal dimensions, and
introduce a general model, TS-Diffusion, to process such complex time series.
Our model consists of three parts under the framework of point process. The
first part is an encoder of the neural ordinary differential equation (ODE)
that converts time series into dense representations, with the jump technique
to capture sampling irregularities and self-attention mechanism to handle
missing values; The second component of TS-Diffusion is a diffusion model that
learns from the representation of time series. These time-series
representations can have a complex distribution because of their high
dimensions; The third part is a decoder of another ODE that generates time
series with irregularities and missing values given their representations. We
have conducted extensive experiments on multiple time-series datasets,
demonstrating that TS-Diffusion achieves excellent results on both conventional
and complex time series and significantly outperforms previous baselines.
- Abstract(参考訳): 現在の生成モデルは時系列合成において有望な性能を達成したが、データフォーマット(例:正則性)を強く仮定するか、あるいは生データを簡単にするための前処理アプローチ(例:補間)に依存している。
本研究では, サンプリングの不規則性, 欠如, 特徴時間次元の大きい3つの共通不規則性を有する時系列のクラスを考察し, 複雑な時系列を処理するための一般モデルであるts-diffusionを導入する。
私たちのモデルはポイントプロセスの枠組みの下で3つの部分で構成されています。
第1部は、時系列を密度表現に変換するニューラル常微分方程式(ODE)のエンコーダであり、サンプリングの不規則性を捕捉するジャンプ法と、欠測値を扱う自己保持機構がある。
これらの時系列表現は、その高次元のために複雑な分布を持つことができ、第3部は、その表現が与えられたときに不規則で欠落した値を持つ時系列を生成する別のodeのデコーダである。
我々は、複数の時系列データセットについて広範な実験を行い、TS-Diffusionが従来の時系列と複雑な時系列の両方において優れた結果を得ることを示した。
関連論文リスト
- Retrieval-Augmented Diffusion Models for Time Series Forecasting [19.251274915003265]
検索時間拡張拡散モデル(RATD)を提案する。
RATDは埋め込みベースの検索プロセスと参照誘導拡散モデルという2つの部分から構成される。
当社のアプローチでは,データベース内の意味のあるサンプルを活用することで,サンプリングを支援し,データセットの利用を最大化することが可能です。
論文 参考訳(メタデータ) (2024-10-24T13:14:39Z) - Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - SeqLink: A Robust Neural-ODE Architecture for Modelling Partially Observed Time Series [11.261457967759688]
シーケンス表現の堅牢性を高めるために設計された,革新的なニューラルアーキテクチャであるSeqLinkを紹介する。
我々はSeqLinkが断続時系列のモデリングを改善し、一貫して最先端のアプローチより優れていることを示した。
論文 参考訳(メタデータ) (2022-12-07T10:25:59Z) - Tripletformer for Probabilistic Interpolation of Irregularly sampled
Time Series [6.579888565581481]
本稿では,不規則なサンプル時間列の確率的推定のために,"Tripletformer"と呼ばれる新しいエンコーダデコーダアーキテクチャを提案する。
この注意に基づくモデルは、各要素が三重時間、チャネル、および値からなる観測セットで動作する。
その結果,実世界のデータセットでは最大32%,合成データセットでは85%の負の対数誤差が改善された。
論文 参考訳(メタデータ) (2022-10-05T08:31:05Z) - STING: Self-attention based Time-series Imputation Networks using GAN [4.052758394413726]
GANを用いたSING(Self-attention based Time-Series Imputation Networks)を提案する。
我々は、時系列の潜在表現を学習するために、生成的対向ネットワークと双方向リカレントニューラルネットワークを利用する。
3つの実世界のデータセットによる実験結果から、STINGは既存の最先端手法よりも計算精度が優れていることが示された。
論文 参考訳(メタデータ) (2022-09-22T06:06:56Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Learning from Irregularly-Sampled Time Series: A Missing Data
Perspective [18.493394650508044]
不規則にサンプリングされた時系列は、医療を含む多くの領域で発生する。
連続だが観測されていない関数からサンプリングされた指数値対の列として、不規則にサンプリングされた時系列データをモデル化する。
本稿では,変分オートエンコーダと生成対向ネットワークに基づく学習手法を提案する。
論文 参考訳(メタデータ) (2020-08-17T20:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。