論文の概要: Grasping Core Rules of Time Series through Pure Models
- arxiv url: http://arxiv.org/abs/2208.07105v1
- Date: Mon, 15 Aug 2022 10:22:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 12:57:03.810336
- Title: Grasping Core Rules of Time Series through Pure Models
- Title(参考訳): 純モデルによる時系列コアルールのグラッピング
- Authors: Gedi Liu, Yifeng Jiang, Yi Ouyang, Keyang Zhong, Yang Wang
- Abstract要約: PureTSは3つの純粋な線形層を持つネットワークであり、長いシーケンス予測タスクの80%で最先端を達成した。
本稿では, 純粋な線形層の可能性について考察する。
- 参考スコア(独自算出の注目度): 6.849905754473385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series underwent the transition from statistics to deep learning, as did
many other machine learning fields. Although it appears that the accuracy has
been increasing as the model is updated in a number of publicly available
datasets, it typically only increases the scale by several times in exchange
for a slight difference in accuracy. Through this experiment, we point out a
different line of thinking, time series, especially long-term forecasting, may
differ from other fields. It is not necessary to use extensive and complex
models to grasp all aspects of time series, but to use pure models to grasp the
core rules of time series changes. With this simple but effective idea, we
created PureTS, a network with three pure linear layers that achieved
state-of-the-art in 80% of the long sequence prediction tasks while being
nearly the lightest model and having the fastest running speed. On this basis,
we discuss the potential of pure linear layers in both phenomena and essence.
The ability to understand the core law contributes to the high precision of
long-distance prediction, and reasonable fluctuation prevents it from
distorting the curve in multi-step prediction like mainstream deep learning
models, which is summarized as a pure linear neural network that avoids
over-fluctuating. Finally, we suggest the fundamental design standards for
lightweight long-step time series tasks: input and output should try to have
the same dimension, and the structure avoids fragmentation and complex
operations.
- Abstract(参考訳): 時系列は、他の多くの機械学習分野と同様に、統計学から深層学習へ移行した。
モデルが複数の公開データセットで更新されるにつれて、精度が向上しているように見えるが、通常は、精度のわずかな違いと引き換えに、数倍のスケールしか増加しない。
この実験を通じて、時系列、特に長期予測の異なる考え方が他の分野と異なる可能性があることを指摘した。
時系列のすべての側面を把握するために、広範囲で複雑なモデルを使う必要はなく、純粋なモデルを使って時系列変化のコアルールを理解する必要がある。
このシンプルで効果的なアイデアによって、puretsは3つの純粋な線形層を持つネットワークで、長いシーケンス予測タスクの80%で最先端を達成した。
本稿では,現象と本質の両方における純粋線形層の可能性について考察する。
中心となる法則を理解する能力は、長距離予測の高精度に寄与し、合理的なゆらぎは、過剰変動を避ける純粋な線形ニューラルネットワークとしてまとめられた主流のディープラーニングモデルのような多段階予測において、曲線を歪めることを妨げる。
最後に、軽量なロングステップ時系列タスクの基本設計基準を提案する。 入出力と入出力は同じ次元を持つようにし、構造はフラグメンテーションや複雑な操作を避ける。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Spatiotemporal-Linear: Towards Universal Multivariate Time Series
Forecasting [10.404951989266191]
本稿ではSTL(Spatio-Temporal-Linear)フレームワークを紹介する。
STLは、Linearベースのアーキテクチャを拡張するために、時間組込みと空間インフォームドのバイパスをシームレスに統合する。
実証的な証拠は、さまざまな観測時間と予測期間とデータセットにわたって、LinearとTransformerのベンチマークを上回り、STLの成果を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-12-22T17:46:34Z) - TACTiS-2: Better, Faster, Simpler Attentional Copulas for Multivariate Time Series [57.4208255711412]
パウラ理論に基づいて,最近導入されたトランスフォーマーに基づく注目パウラ(TACTiS)の簡易な目的を提案する。
結果から,実世界の予測タスクにまたがって,このモデルのトレーニング性能が大幅に向上し,最先端のパフォーマンスが達成できることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T16:45:19Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Multivariate Time Series Forecasting with Dynamic Graph Neural ODEs [65.18780403244178]
動的グラフニューラル正規微分方程式(MTGODE)を用いた多変量時系列予測連続モデルを提案する。
具体的には、まず、時間進化するノードの特徴と未知のグラフ構造を持つ動的グラフに多変量時系列を抽象化する。
そして、欠落したグラフトポロジを補完し、空間的および時間的メッセージパッシングを統一するために、ニューラルODEを設計、解決する。
論文 参考訳(メタデータ) (2022-02-17T02:17:31Z) - Time Series Anomaly Detection by Cumulative Radon Features [32.36217153362305]
本研究は,分布距離測定と組み合わせた場合,浅部特徴が十分であると主張する。
提案手法は,各時系列を高次元的特徴分布としてモデル化する。
累積ラドン特徴量を用いて各時系列をパラメータ化することにより、正規時系列の分布を効率的に効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2022-02-08T18:58:53Z) - Adjusting for Autocorrelated Errors in Neural Networks for Time Series
Regression and Forecasting [10.659189276058948]
我々は,自己相関係数をモデルパラメータと組み合わせて学習し,自己相関誤差の補正を行う。
時系列回帰では,大規模な実験により,本手法がPrais-Winsten法より優れていることが示された。
実世界の幅広いデータセットを対象とした結果から,ほぼすべてのケースにおいて,本手法が性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T04:25:51Z) - Improved Predictive Deep Temporal Neural Networks with Trend Filtering [22.352437268596674]
本稿では,ディープニューラルネットワークとトレンドフィルタリングに基づく新しい予測フレームワークを提案する。
我々は,学習データをトレンドフィルタリングによって時間的に処理した場合,深部時相ニューラルネットワークの予測性能が向上することを明らかにする。
論文 参考訳(メタデータ) (2020-10-16T08:29:36Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Multivariate Probabilistic Time Series Forecasting via Conditioned
Normalizing Flows [8.859284959951204]
時系列予測は科学的・工学的な問題の基本である。
深層学習法はこの問題に適している。
多くの実世界のデータセットにおける標準メトリクスの最先端よりも改善されていることを示す。
論文 参考訳(メタデータ) (2020-02-14T16:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。