論文の概要: Recurrent Neural Networks with more flexible memory: better predictions
than rough volatility
- arxiv url: http://arxiv.org/abs/2308.08550v1
- Date: Fri, 4 Aug 2023 14:24:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-27 05:25:03.112079
- Title: Recurrent Neural Networks with more flexible memory: better predictions
than rough volatility
- Title(参考訳): フレキシブルなメモリを持つリカレントニューラルネットワーク - 粗いボラティリティよりも優れた予測
- Authors: Damien Challet and Vincent Ragel
- Abstract要約: 資産価格のボラティリティを予測するため,バニラと長期の長期記憶ネットワークの能力を比較した。
検証損失が最小のモデルでは,複数時系列のデータセット上でトレーニングおよびテストを行った場合,大まかなボラティリティ予測を約20%上回る結果が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We extend recurrent neural networks to include several flexible timescales
for each dimension of their output, which mechanically improves their abilities
to account for processes with long memory or with highly disparate time scales.
We compare the ability of vanilla and extended long short term memory networks
(LSTMs) to predict asset price volatility, known to have a long memory.
Generally, the number of epochs needed to train extended LSTMs is divided by
two, while the variation of validation and test losses among models with the
same hyperparameters is much smaller. We also show that the model with the
smallest validation loss systemically outperforms rough volatility predictions
by about 20% when trained and tested on a dataset with multiple time series.
- Abstract(参考訳): 我々は、リカレントニューラルネットワークを拡張して、出力の各次元にいくつかのフレキシブルな時間スケールを含むようにし、長いメモリまたは非常に異なる時間スケールのプロセスを考慮する能力を機械的に改善する。
我々は,バニラと長期短期記憶ネットワーク(LSTM)の長期記憶能力を比較し,長期記憶を有することで知られる資産価格変動を予測する。
一般に、拡張LSTMの訓練に必要なエポックの数は2つに分けられるが、同じハイパーパラメータを持つモデル間での検証とテスト損失のばらつきははるかに小さい。
また,検証損失が最小のモデルは,複数の時系列を持つデータセット上でのトレーニングとテストにおいて,大まかなボラティリティ予測を約20%上回ることを示した。
関連論文リスト
- Multi-Scale Convolutional LSTM with Transfer Learning for Anomaly Detection in Cellular Networks [1.1432909951914676]
本研究では,トランスファーラーニング(TL)を用いたマルチスケール畳み込みLSTMによるセルネットワークの異常検出手法を提案する。
モデルは最初、公開データセットを使用してスクラッチからトレーニングされ、典型的なネットワーク動作を学習する。
我々は,スクラッチから訓練したモデルの性能と,TLを用いた微調整モデルの性能を比較した。
論文 参考訳(メタデータ) (2024-09-30T17:51:54Z) - Time Scale Network: A Shallow Neural Network For Time Series Data [18.46091267922322]
時系列データは、しばしば複数の時間スケールで情報で構成されている。
この情報を捉えるためのディープラーニング戦略は存在するが、ネットワークを大きくし、より多くのデータを必要とし、計算を要求されやすく、解釈が難しいものが多い。
本稿では,離散ウェーブレット変換における翻訳と拡張シーケンスと,従来の畳み込みニューラルネットワークとバックプロパゲーションを組み合わせた,最小かつ計算効率のタイムスケールネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-10T16:39:55Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - SITHCon: A neural network robust to variations in input scaling on the
time dimension [0.0]
機械学習では、畳み込みニューラルネットワーク(CNN)はコンピュータビジョンと時間とともに拡張されたパターンの認識の両方に非常に影響を与えている。
本稿では,対数的に分散した時間メモリを用いたSITHCon(Scale-Invariant Temporal History Convolution Network)を提案する。
論文 参考訳(メタデータ) (2021-07-09T18:11:50Z) - Latent Time-Adaptive Drift-Diffusion Model [0.0]
本稿では,動物実験データと一致する行動特性を示す動物学習モデルとして,潜時適応ドリフト拡散モデル(LTDDM)を提案する。
LTDDMは、リカレントニューラルネットワークよりも桁違いに高速にこれらのイベント時系列を学習できることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:18:16Z) - Evaluation of deep learning models for multi-step ahead time series
prediction [1.3764085113103222]
本研究では,マルチステップ先行時系列予測のための深層学習モデルの性能を比較検討する。
当社のディープラーニングメソッドは、単純なリカレントニューラルネットワーク、長期メモリ(LSTM)ネットワーク、双方向LSTM、エンコーダデコーダLSTMネットワーク、および畳み込みニューラルネットワークを妥協します。
論文 参考訳(メタデータ) (2021-03-26T04:07:11Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - HiPPO: Recurrent Memory with Optimal Polynomial Projections [93.3537706398653]
本稿では,連続信号と離散時系列をベースに投影してオンライン圧縮するための一般フレームワーク(HiPPO)を提案する。
過去の各時間ステップの重要性を示す尺度が与えられた場合、HiPPOは自然なオンライン関数近似問題に対する最適解を生成する。
このフォーマルなフレームワークは、すべての履歴を記憶するために時間をかけてスケールする新しいメモリ更新メカニズム(HiPPO-LegS)を提供する。
論文 参考訳(メタデータ) (2020-08-17T23:39:33Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。