論文の概要: Zero-shot and few-shot time series forecasting with ordinal regression
recurrent neural networks
- arxiv url: http://arxiv.org/abs/2003.12162v1
- Date: Thu, 26 Mar 2020 21:33:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:14:52.582839
- Title: Zero-shot and few-shot time series forecasting with ordinal regression
recurrent neural networks
- Title(参考訳): 順序回帰リカレントニューラルネットワークを用いたゼロショットおよび少数ショット時系列予測
- Authors: Bernardo P\'erez Orozco and Stephen J Roberts
- Abstract要約: リカレントニューラルネットワーク(RNN)は、いくつかのシーケンシャルな学習タスクにおいて最先端である。
本稿では,多くの量子化された時系列の空間上に埋め込まれた共有特徴を学習することにより,この問題に直接対処する新しいRNNモデルを提案する。
これにより、トレーニングデータが少ない場合であっても、RNNフレームワークが不適切な時系列を正確かつ確実に予測できることを示す。
- 参考スコア(独自算出の注目度): 17.844338213026976
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recurrent neural networks (RNNs) are state-of-the-art in several sequential
learning tasks, but they often require considerable amounts of data to
generalise well. For many time series forecasting (TSF) tasks, only a few
dozens of observations may be available at training time, which restricts use
of this class of models. We propose a novel RNN-based model that directly
addresses this problem by learning a shared feature embedding over the space of
many quantised time series. We show how this enables our RNN framework to
accurately and reliably forecast unseen time series, even when there is little
to no training data available.
- Abstract(参考訳): リカレントニューラルネットワーク(recurrent neural networks, rnns)は、いくつかの逐次学習タスクにおいて最先端のものだが、うまく一般化するには大量のデータを必要とすることが多い。
多くの時系列予測(TSF)タスクでは、トレーニング時に数十の観測しか利用できないため、この種のモデルの使用を制限することができる。
本稿では,数量化時系列の空間に埋め込まれた共有特徴を学習することにより,この問題を直接解決する新しいrnnモデルを提案する。
これにより、トレーニングデータが少ない場合であっても、RNNフレームワークが不適切な時系列を正確かつ確実に予測できることを示す。
関連論文リスト
- TCGPN: Temporal-Correlation Graph Pre-trained Network for Stock Forecasting [1.864621482724548]
本稿では,これらの制約に対処するため,TCGPN(Temporal-Correlation Graph Pre-trained Network)と呼ばれる新しい手法を提案する。
TCGPNはテンポラル相関融合エンコーダを用いて,時間的および相関的な事前学習タスクを慎重に設計した混合表現と事前学習を行う。
CSI300とCSI500は、最小限の周期性を示す。
論文 参考訳(メタデータ) (2024-07-26T05:27:26Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Rapid training of quantum recurrent neural network [26.087244189340858]
本稿では,これらの障害に対処する量子リカレントニューラルネットワーク(QRNN)を提案する。
ネットワークの設計は連続変数量子コンピューティングのパラダイムに基づいている。
数値シミュレーションにより、QRNNは古典的ネットワークよりも少ないエポックで最適な重みに収束していることが示された。
論文 参考訳(メタデータ) (2022-07-01T12:29:33Z) - Pre-training Enhanced Spatial-temporal Graph Neural Network for
Multivariate Time Series Forecasting [13.441945545904504]
スケーラブルな時系列事前学習モデル(STEP)によりSTGNNが拡張される新しいフレームワークを提案する。
具体的には、非常に長期の歴史時系列から時間パターンを効率的に学習するための事前学習モデルを設計する。
我々のフレームワークは下流のSTGNNを著しく強化することができ、事前学習モデルは時間パターンを適切にキャプチャする。
論文 参考訳(メタデータ) (2022-06-18T04:24:36Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Learning from Irregularly-Sampled Time Series: A Missing Data
Perspective [18.493394650508044]
不規則にサンプリングされた時系列は、医療を含む多くの領域で発生する。
連続だが観測されていない関数からサンプリングされた指数値対の列として、不規則にサンプリングされた時系列データをモデル化する。
本稿では,変分オートエンコーダと生成対向ネットワークに基づく学習手法を提案する。
論文 参考訳(メタデータ) (2020-08-17T20:01:55Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。