論文の概要: Variational Latent Discrete Representation for Time Series Modelling
- arxiv url: http://arxiv.org/abs/2306.15282v2
- Date: Wed, 28 Jun 2023 11:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 11:10:54.971120
- Title: Variational Latent Discrete Representation for Time Series Modelling
- Title(参考訳): 時系列モデリングのための変分潜在離散表現
- Authors: Max Cohen, Maurice Charbit, Sylvain Le Corff
- Abstract要約: 我々は、離散状態がマルコフ連鎖である潜在データモデルを導入し、高速なエンドツーエンドトレーニングを可能にした。
生成モデルの性能は,ビル管理データセットと一般公開されているElectricity Transformerデータセットに基づいて評価する。
- 参考スコア(独自算出の注目度): 1.6328866317851185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete latent space models have recently achieved performance on par with
their continuous counterparts in deep variational inference. While they still
face various implementation challenges, these models offer the opportunity for
a better interpretation of latent spaces, as well as a more direct
representation of naturally discrete phenomena. Most recent approaches propose
to train separately very high-dimensional prior models on the discrete latent
data which is a challenging task on its own. In this paper, we introduce a
latent data model where the discrete state is a Markov chain, which allows fast
end-to-end training. The performance of our generative model is assessed on a
building management dataset and on the publicly available Electricity
Transformer Dataset.
- Abstract(参考訳): 離散潜在空間モデルは、最近、深部変分推論における連続的な空間と同等の性能を達成した。
彼らはまだ様々な実装課題に直面しているが、これらのモデルは自然に離散的な現象をより直接的に表現するだけでなく、潜在空間をよりよく解釈する機会を提供する。
最近のアプローチでは、離散潜在データ上で非常に高次元の事前モデルを個別に訓練することを提案している。
本稿では、離散状態がマルコフ連鎖であり、高速なエンドツーエンドトレーニングを可能にする潜在データモデルを提案する。
生成モデルの性能はビル管理データセットと一般公開されているElectricity Transformer Datasetに基づいて評価する。
関連論文リスト
- Stochastic Diffusion: A Diffusion Probabilistic Model for Stochastic Time Series Forecasting [8.232475807691255]
本稿では,データ駆動型事前知識を各ステップで学習する新しい拡散(StochDiff)モデルを提案する。
学習された事前知識は、複雑な時間的ダイナミクスとデータ固有の不確実性を捉えるのに役立つ。
論文 参考訳(メタデータ) (2024-06-05T00:13:38Z) - Variational quantization for state space models [3.9762742923544456]
何千もの異種時系列を収集する大規模なデータセットを用いてタスクを予測することは、多くの分野において重要な統計問題である。
離散状態空間隠蔽マルコフモデルと最近のニューラルネットワークアーキテクチャを組み合わせた新しい予測モデルを提案し,ベクトル量子化変分オートエンコーダにインスパイアされたトレーニング手順を提案する。
提案手法の性能を複数のデータセットを用いて評価し,他の最先端ソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-17T07:01:41Z) - MG-TSD: Multi-Granularity Time Series Diffusion Models with Guided Learning Process [26.661721555671626]
本稿では,最先端の予測性能を実現する新しい多粒度時系列(MG-TSD)モデルを提案する。
われわれのアプローチは外部データに頼らず、様々な領域にまたがって汎用的で適用可能である。
論文 参考訳(メタデータ) (2024-03-09T01:15:03Z) - PDETime: Rethinking Long-Term Multivariate Time Series Forecasting from
the perspective of partial differential equations [49.80959046861793]
本稿では,ニューラルPDEソルバの原理に着想を得た新しいLMTFモデルであるPDETimeを提案する。
7つの異なる時間的実世界のLMTFデータセットを用いた実験により、PDETimeがデータ固有の性質に効果的に適応できることが判明した。
論文 参考訳(メタデータ) (2024-02-25T17:39:44Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Neural Continuous-Discrete State Space Models for Irregularly-Sampled
Time Series [18.885471782270375]
NCDSSMは補助変数を用いて力学からの認識をアンタングルし、補助変数のみに償却推論を必要とする。
本稿では、潜在力学の3つのフレキシブルパラメータ化と、推論中の動的状態の辺りを生かした効率的な学習目標を提案する。
複数のベンチマークデータセットの実証結果は、既存のモデルよりもNCDSSMの計算性能と予測性能が改善されたことを示している。
論文 参考訳(メタデータ) (2023-01-26T18:45:04Z) - DynaConF: Dynamic Forecasting of Non-Stationary Time Series [4.286546152336783]
非定常条件分布を時間とともにモデル化する新しい手法を提案する。
我々のモデルは、最先端のディープラーニングソリューションよりも定常的でない時系列に適応できることを示します。
論文 参考訳(メタデータ) (2022-09-17T21:40:02Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。