論文の概要: VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2205.15894v1
- Date: Tue, 31 May 2022 15:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:17:50.410640
- Title: VQ-AR: Vector Quantized Autoregressive Probabilistic Time Series
Forecasting
- Title(参考訳): vq-ar:ベクトル量子化自己回帰確率時系列予測
- Authors: Kashif Rasul, Young-Jin Park, Max Nihl\'en Ramstr\"om, Kyung-Min Kim
- Abstract要約: 時系列モデルは過去の予測を正確に予測することを目的としており、そこではビジネス上の意思決定のような重要な下流のタスクに予測が使用される。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを提案する。
- 参考スコア(独自算出の注目度): 10.605719154114354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series models aim for accurate predictions of the future given the past,
where the forecasts are used for important downstream tasks like business
decision making. In practice, deep learning based time series models come in
many forms, but at a high level learn some continuous representation of the
past and use it to output point or probabilistic forecasts. In this paper, we
introduce a novel autoregressive architecture, VQ-AR, which instead learns a
\emph{discrete} set of representations that are used to predict the future.
Extensive empirical comparison with other competitive deep learning models
shows that surprisingly such a discrete set of representations gives
state-of-the-art or equivalent results on a wide variety of time series
datasets. We also highlight the shortcomings of this approach, explore its
zero-shot generalization capabilities, and present an ablation study on the
number of representations. The full source code of the method will be available
at the time of publication with the hope that researchers can further
investigate this important but overlooked inductive bias for the time series
domain.
- Abstract(参考訳): 時系列モデルは過去の予測を正確に予測することを目的としており、予測はビジネス意思決定のような下流の重要なタスクに使用される。
実際には、深層学習に基づく時系列モデルは、多くの形式があるが、高いレベルでは過去の連続的な表現を学び、それを点や確率予測の出力に利用する。
本稿では,新しい自己回帰型アーキテクチャであるVQ-ARを導入し,その代わりに未来を予測するために使用される表現のemph{discrete}集合を学習する。
他の競争的深層学習モデルと比較すると、驚くほど離散的な表現セットは、様々な時系列データセットに最先端または同等の結果をもたらす。
また,このアプローチの欠点を浮き彫りにし,ゼロショット一般化能力について検討し,表現数に関するアブレーション研究を行った。
この方法の完全なソースコードは公開時点で利用可能になる予定で、研究者はこの重要なが見過ごされている時系列領域の帰納的バイアスをさらに調査できることを期待している。
関連論文リスト
- TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Contrastive Difference Predictive Coding [79.74052624853303]
本研究では、時系列データの断片を縫合して、将来の事象の予測を学習するために必要なデータの量を減少させるコントラッシブ予測符号化の時間差版を導入する。
目的条件付きRLの非政治アルゴリズムを導出するために,この表現学習手法を適用した。
論文 参考訳(メタデータ) (2023-10-31T03:16:32Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - MPR-Net:Multi-Scale Pattern Reproduction Guided Universality Time Series
Interpretable Forecasting [13.790498420659636]
時系列予測は、その広範な応用が本質的に困難なため、既存の研究から幅広い関心を集めている。
本稿では,まず,畳み込み操作を用いてマルチスケールの時系列パターンを適応的に分解し,パターン再現の既知に基づいてパターン拡張予測手法を構築し,最終的に畳み込み操作を用いて将来的なパターンを再構築する。
時系列に存在する時間的依存関係を活用することで、MPR-Netは線形時間複雑性を達成するだけでなく、予測プロセスも解釈できる。
論文 参考訳(メタデータ) (2023-07-13T13:16:01Z) - Ripple: Concept-Based Interpretation for Raw Time Series Models in
Education [5.374524134699487]
時系列は、教育予測タスクにおいて最も一般的な入力データである。
本稿では,グラフニューラルネットワークを用いた不規則な多変量時系列モデリングを用いて,同等あるいはより良い精度を実現する手法を提案する。
教育領域におけるこれらの進歩を分析し,早期学生のパフォーマンス予測の課題に対処する。
論文 参考訳(メタデータ) (2022-12-02T12:26:00Z) - Split Time Series into Patches: Rethinking Long-term Series Forecasting
with Dateformer [17.454822366228335]
時間は時系列の最も重要な特徴の1つだが、あまり注目されていない。
本稿では、上記のプラクティスに従うのではなく、モデリング時間に注意を向けるDateformerを提案する。
ディザフォーマーは、40%の顕著な相対的な改善で最先端の精度を達成し、最大信頼性予測範囲を半年レベルに拡大する。
論文 参考訳(メタデータ) (2022-07-12T08:58:44Z) - Series Saliency: Temporal Interpretation for Multivariate Time Series
Forecasting [30.054015098590874]
時系列予測のための時系列解釈のためのシリーズサリエンシーフレームワークを提示する。
時系列のスライディングウィンドウから「時系列画像」を抽出することにより、サリエンシーマップのセグメンテーションを適用する。
本フレームワークは,時系列予測タスクの時間的解釈を生成し,正確な時系列予測を生成する。
論文 参考訳(メタデータ) (2020-12-16T23:48:00Z) - timeXplain -- A Framework for Explaining the Predictions of Time Series
Classifiers [3.6433472230928428]
本稿では,時間領域,周波数領域,時系列統計に関する新しいドメインマッピングを提案する。
我々は彼らの説明力と限界を分析する。
我々は、TimeXplainといくつかのモデル固有の説明手法を実験的に比較するために、新しい評価基準を用いる。
論文 参考訳(メタデータ) (2020-07-15T10:32:43Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。