論文の概要: HARNet: A Convolutional Neural Network for Realized Volatility
Forecasting
- arxiv url: http://arxiv.org/abs/2205.07719v1
- Date: Mon, 16 May 2022 14:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 16:45:27.330717
- Title: HARNet: A Convolutional Neural Network for Realized Volatility
Forecasting
- Title(参考訳): HARNet: 実現されたボラティリティ予測のための畳み込みニューラルネットワーク
- Authors: Rafael Reisenhofer, Xandro Bayer, Nikolaus Hautsch
- Abstract要約: 我々は、確立された時系列アプローチとディープニューラルネットワークモデルの間の概念的ギャップを橋渡しする。
HarNetは拡張畳み込み層の階層に基づいており、モデルの受容場を指数関数的に成長させる。
HARNetは,各HARベースラインモデルの予測精度を大幅に向上できることを示す。
- 参考スコア(独自算出の注目度): 0.27528170226206433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the impressive success of deep neural networks in many application
areas, neural network models have so far not been widely adopted in the context
of volatility forecasting. In this work, we aim to bridge the conceptual gap
between established time series approaches, such as the Heterogeneous
Autoregressive (HAR) model, and state-of-the-art deep neural network models.
The newly introduced HARNet is based on a hierarchy of dilated convolutional
layers, which facilitates an exponential growth of the receptive field of the
model in the number of model parameters. HARNets allow for an explicit
initialization scheme such that before optimization, a HARNet yields identical
predictions as the respective baseline HAR model. Particularly when considering
the QLIKE error as a loss function, we find that this approach significantly
stabilizes the optimization of HARNets. We evaluate the performance of HARNets
with respect to three different stock market indexes. Based on this evaluation,
we formulate clear guidelines for the optimization of HARNets and show that
HARNets can substantially improve upon the forecasting accuracy of their
respective HAR baseline models. In a qualitative analysis of the filter weights
learnt by a HARNet, we report clear patterns regarding the predictive power of
past information. Among information from the previous week, yesterday and the
day before, yesterday's volatility makes by far the most contribution to
today's realized volatility forecast. Moroever, within the previous month, the
importance of single weeks diminishes almost linearly when moving further into
the past.
- Abstract(参考訳): 多くのアプリケーション領域におけるディープニューラルネットワークの成功にもかかわらず、ニューラルネットワークモデルは、ボラティリティ予測の文脈で広く採用されていない。
本研究では,HAR(Heterogeneous Autoregressive)モデルや最先端のディープニューラルネットワークモデルといった,確立された時系列アプローチの概念的ギャップを埋めることを目的としている。
新たに導入されたharnetは、拡張された畳み込み層の階層構造に基づいており、モデルパラメータ数におけるモデルの受容野の指数関数的成長を促進する。
HARNetは最適化の前に、HARNetがそれぞれのベースラインHARモデルと同一の予測を行うような明示的な初期化スキームを可能にする。
特に、QLIKEエラーを損失関数として考えると、このアプローチはHARNetの最適化を著しく安定化させる。
我々は,HARNetsのパフォーマンスを3つの異なる市場指標に対して評価する。
この評価に基づいて,HARNetの最適化に関する明確なガイドラインを定式化し,各HARベースラインモデルの予測精度を大幅に向上できることを示す。
HARNetで学習したフィルタ重みの質的分析において,過去の情報の予測力に関する明確なパターンを報告する。
前週、昨日、前日の情報の中でも、昨日のボラティリティは、今日の実現されたボラティリティ予測に最も貢献している。
モロバは前月以内に、過去へさらに進むと、1週間の重要性がほぼ直線的に減少する。
関連論文リスト
- GARCH-Informed Neural Networks for Volatility Prediction in Financial Markets [0.0]
マーケットのボラティリティを計測し、予測する新しいハイブリッドなDeep Learningモデルを提案する。
他の時系列モデルと比較すると、GINNは決定係数(R2$)、平均正方形誤差(MSE)、平均絶対誤差(MAE)の点で優れたサンプル外予測性能を示した。
論文 参考訳(メタデータ) (2024-09-30T23:53:54Z) - Loss-based Bayesian Sequential Prediction of Value at Risk with a Long-Memory and Non-linear Realized Volatility Model [3.00982257854028]
リスク予測(VaR)には,長期記憶と非線形実現ボラティリティモデルクラスが提案されている。
このモデルはRNN-HARと呼ばれ、異種自己回帰(HAR)モデルを拡張している。
連続モンテカルロによる損失に基づく一般化ベイズ予想は、モデル推定と逐次予測に使用される。
論文 参考訳(メタデータ) (2024-08-24T14:17:31Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - SHAPNN: Shapley Value Regularized Tabular Neural Network [4.587122314291091]
本稿では,教師あり学習のための新しい深層データモデリングアーキテクチャであるSHAPNNを紹介する。
我々のニューラルネットワークは、標準的な後方伝播最適化手法を用いて訓練され、リアルタイムに推定されたShapley値で正規化される。
我々は,これらの手法を公開データセット上で評価し,最先端のディープニューラルネットワークモデルと比較した。
論文 参考訳(メタデータ) (2023-09-15T22:45:05Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - Low-Rank Temporal Attention-Augmented Bilinear Network for financial
time-series forecasting [93.73198973454944]
ディープラーニングモデルは、金融時系列データの予測問題など、さまざまな領域から来る多くの問題において、大幅なパフォーマンス改善をもたらしている。
近年,制限順序書の時系列予測の効率的かつ高性能なモデルとして,時間的注意強化バイリニアネットワークが提案されている。
本稿では,モデルの低ランクテンソル近似を提案し,トレーニング可能なパラメータの数をさらに削減し,その速度を向上する。
論文 参考訳(メタデータ) (2021-07-05T10:15:23Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - NEW: A Generic Learning Model for Tie Strength Prediction in Networks [5.834475036139535]
タイの強度予測(タイの強さ予測、英: Tie strength prediction)は、ネットワークに出現する接続パターンの多様性を探索する上で不可欠である。
我々はNEW(Neighborhood Estimating Weight)と呼ばれる新しい計算フレームワークを提案する。
NEWはネットワークの基本構造情報によって純粋に駆動され、多様な種類のネットワークに適応する柔軟性を持つ。
論文 参考訳(メタデータ) (2020-01-15T13:02:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。