論文の概要: The Effectiveness of Discretization in Forecasting: An Empirical Study
on Neural Time Series Models
- arxiv url: http://arxiv.org/abs/2005.10111v1
- Date: Wed, 20 May 2020 15:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:55:34.706923
- Title: The Effectiveness of Discretization in Forecasting: An Empirical Study
on Neural Time Series Models
- Title(参考訳): 予測における離散化の有効性:ニューラル時系列モデルに関する実証的研究
- Authors: Stephan Rabanser, Tim Januschowski, Valentin Flunkert, David Salinas,
Jan Gasthaus
- Abstract要約: ニューラル予測アーキテクチャの予測性能に及ぼすデータ入力および出力変換の影響について検討する。
バイナリ化は実値入力の正規化に比べてほぼ常に性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 15.281725756608981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series modeling techniques based on deep learning have seen many
advancements in recent years, especially in data-abundant settings and with the
central aim of learning global models that can extract patterns across multiple
time series. While the crucial importance of appropriate data pre-processing
and scaling has often been noted in prior work, most studies focus on improving
model architectures. In this paper we empirically investigate the effect of
data input and output transformations on the predictive performance of several
neural forecasting architectures. In particular, we investigate the
effectiveness of several forms of data binning, i.e. converting real-valued
time series into categorical ones, when combined with feed-forward, recurrent
neural networks, and convolution-based sequence models. In many non-forecasting
applications where these models have been very successful, the model inputs and
outputs are categorical (e.g. words from a fixed vocabulary in natural language
processing applications or quantized pixel color intensities in computer
vision). For forecasting applications, where the time series are typically
real-valued, various ad-hoc data transformations have been proposed, but have
not been systematically compared. To remedy this, we evaluate the forecasting
accuracy of instances of the aforementioned model classes when combined with
different types of data scaling and binning. We find that binning almost always
improves performance (compared to using normalized real-valued inputs), but
that the particular type of binning chosen is of lesser importance.
- Abstract(参考訳): 近年、深層学習に基づく時系列モデリング技術は、特にデータに基づく設定において、複数の時系列にまたがるパターンを抽出できるグローバルモデルを学ぶことを目的として、多くの進歩を遂げている。
適切なデータの事前処理とスケーリングの重要性は、先行研究でしばしば指摘されているが、ほとんどの研究はモデルアーキテクチャの改善に焦点を当てている。
本稿では,複数のニューラル予測アーキテクチャの予測性能に対するデータ入力と出力変換の影響を実証的に検討する。
特に,フィードフォワード,リカレントニューラルネットワーク,畳み込みに基づくシーケンスモデルと組み合わせた場合の,実数値時系列をカテゴリー的時系列に変換するデータバイナリ化の有効性について検討する。
これらのモデルが非常に成功した多くの非放送アプリケーションでは、モデル入力と出力はカテゴリ(例えば、自然言語処理アプリケーションにおける固定語彙の単語やコンピュータビジョンにおける量子化ピクセル色強度)である。
時系列が実際に評価されるアプリケーションでは、様々なアドホックデータ変換が提案されているが、体系的に比較されていない。
これを改善するために,データスケーリングとビンニングの異なるタイプと組み合わせることで,上記のモデルクラスのインスタンスの予測精度を評価する。
バイナリ化は(正規化された実値入力と比較して)ほぼ常に性能を改善するが、選択した特定のタイプのバイナリはより重要ではない。
関連論文リスト
- VSFormer: Value and Shape-Aware Transformer with Prior-Enhanced Self-Attention for Multivariate Time Series Classification [47.92529531621406]
識別パターン(形状)と数値情報(値)の両方を組み込んだVSFormerを提案する。
さらに、教師付き情報から派生したクラス固有の事前情報を抽出し、位置エンコーディングを強化する。
30のUEAアーカイブデータセットに対する大規模な実験は、SOTAモデルと比較して、我々の手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-21T07:31:22Z) - Enhancing Foundation Models for Time Series Forecasting via Wavelet-based Tokenization [74.3339999119713]
我々はウェーブレットベースのトークンーザを開発し、時間局所化周波数の空間でモデルが複雑な表現を直接学習できるようにする。
提案手法は,まず入力時系列をスケール・分解し,次に閾値を設定し,ウェーブレット係数を定量化し,最後に予測水平方向の係数を予測する自己回帰モデルを事前学習する。
論文 参考訳(メタデータ) (2024-12-06T18:22:59Z) - TimeSieve: Extracting Temporal Dynamics through Information Bottlenecks [31.10683149519954]
本稿では,時系列予測モデルTimeSieveを提案する。
提案手法では、ウェーブレット変換を用いて時系列データを前処理し、マルチスケールの特徴を効果的にキャプチャする。
本研究は,時系列予測における課題に対処するためのアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-06-07T15:58:12Z) - Scaling Law for Time Series Forecasting [8.967263259533036]
大規模データセット、複雑なモデル、強化されたデータの粒度に報いるスケーリング法則は、ディープラーニングの様々な分野において観察されている。
しかし、時系列予測の研究は、時系列予測のためのディープラーニング手法のスケーリング行動に疑問を投げかけている。
本稿では,このような異常な振る舞いを説明できる時系列予測法則のスケーリング理論を提案する。
論文 参考訳(メタデータ) (2024-05-24T00:46:27Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - Time Series is a Special Sequence: Forecasting with Sample Convolution
and Interaction [9.449017120452675]
時系列データ(英: time series)とは、時系列データの一種で、時系列で記録された観測の集合である。
既存のディープラーニング技術では、時系列解析にジェネリックシーケンスモデルを使用しており、そのユニークな性質を無視している。
本稿では,新しいニューラルネットワークアーキテクチャを提案し,時系列予測問題に適用し,時間的モデリングのための複数の解像度でサンプル畳み込みと相互作用を行う。
論文 参考訳(メタデータ) (2021-06-17T08:15:04Z) - Improved Predictive Deep Temporal Neural Networks with Trend Filtering [22.352437268596674]
本稿では,ディープニューラルネットワークとトレンドフィルタリングに基づく新しい予測フレームワークを提案する。
我々は,学習データをトレンドフィルタリングによって時間的に処理した場合,深部時相ニューラルネットワークの予測性能が向上することを明らかにする。
論文 参考訳(メタデータ) (2020-10-16T08:29:36Z) - A Multi-Channel Neural Graphical Event Model with Negative Evidence [76.51278722190607]
イベントデータセットは、タイムライン上で不規則に発生するさまざまなタイプのイベントのシーケンスである。
基礎となる強度関数を推定するために,非パラメトリックディープニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T23:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。