論文の概要: Graph Neural Networks for Forecasting Multivariate Realized Volatility
with Spillover Effects
- arxiv url: http://arxiv.org/abs/2308.01419v1
- Date: Tue, 1 Aug 2023 14:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 15:56:12.908292
- Title: Graph Neural Networks for Forecasting Multivariate Realized Volatility
with Spillover Effects
- Title(参考訳): スパイルオーバー効果を考慮した多変量実現ボラティリティ予測のためのグラフニューラルネットワーク
- Authors: Chao Zhang, Xingyue Pu, Mihai Cucuringu, Xiaowen Dong
- Abstract要約: 提案モデルでは, マルチホップ近傍からの流出効果を取り入れ, 非線形関係を捉え, 損失関数の異なるフレキシブルなトレーニングを行う。
この結果から,擬似的損失によるトレーニングがモデル性能の大幅な向上につながることが示唆された。
- 参考スコア(独自算出の注目度): 16.260673340556135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel methodology for modeling and forecasting multivariate
realized volatilities using customized graph neural networks to incorporate
spillover effects across stocks. The proposed model offers the benefits of
incorporating spillover effects from multi-hop neighbors, capturing nonlinear
relationships, and flexible training with different loss functions. Our
empirical findings provide compelling evidence that incorporating spillover
effects from multi-hop neighbors alone does not yield a clear advantage in
terms of predictive accuracy. However, modeling nonlinear spillover effects
enhances the forecasting accuracy of realized volatilities, particularly for
short-term horizons of up to one week. Moreover, our results consistently
indicate that training with the Quasi-likelihood loss leads to substantial
improvements in model performance compared to the commonly-used mean squared
error. A comprehensive series of empirical evaluations in alternative settings
confirm the robustness of our results.
- Abstract(参考訳): 本稿では,カスタマイズされたグラフニューラルネットワークを用いた多変量実現ボラティリティのモデル化と予測のための新しい手法を提案する。
提案モデルでは, マルチホップ近傍からの流出効果を取り入れ, 非線形関係を捉え, 損失関数の異なるフレキシブルなトレーニングを行う。
実験結果から,マルチホップ近傍のみからの流出効果は予測精度の面では明確な利点をもたらさないという説得力のある証拠が得られた。
しかし, 非線形流出効果のモデル化は, 特に1週間の短期地平線において, 実現した揮発性の予測精度を高める。
さらに, 擬似相似損失のトレーニングは, 一般的な平均二乗誤差に比べ, モデル性能が大幅に向上することが示唆された。
代替設定における総合的な経験的評価により,結果の堅牢性が確認された。
関連論文リスト
- Spurious Feature Diversification Improves Out-of-distribution
Generalization [45.73116618895293]
アウト・オブ・ディストリビューション(OOD)データへの一般化は、機械学習において重要な課題である。
トレーニング済みモデルと微調整済みモデルの間を補間する一般的な重量空間アンサンブル法であるWiSE-FTについて検討する。
論文 参考訳(メタデータ) (2023-09-29T13:29:22Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Better Batch for Deep Probabilistic Time Series Forecasting [17.212396544233307]
本稿では,確率的予測精度を高めるために,誤り自己相関を取り入れた新しいトレーニング手法を提案する。
各ミニバッチ上で時間変化の共分散行列を明示的に学習し、隣接する時間ステップ間の誤差相関を符号化する。
2つの異なるニューラル予測モデルと複数の公開データセットで本手法を評価する。
論文 参考訳(メタデータ) (2023-05-26T15:36:59Z) - On the Efficacy of Generalization Error Prediction Scoring Functions [33.24980750651318]
一般化誤差予測器(GEP)は,サンプルレベルのスコアからデータセットレベルの誤差推定を導出することにより,未知分布のモデル性能を予測することを目的としている。
機構選択に依存しない一般的なスコアリング関数(自信,局所多様体の滑らかさ,モデル適合性)の有効性を厳密に研究する。
論文 参考訳(メタデータ) (2023-03-23T18:08:44Z) - Toward Robust Uncertainty Estimation with Random Activation Functions [3.0586855806896045]
本稿では,ランダムアクティベーション関数(RAF)アンサンブルを用いた不確実性定量化手法を提案する。
RAF アンサンブルは、合成データセットと実世界のデータセットの両方において、最先端のアンサンブル不確実性定量化手法より優れている。
論文 参考訳(メタデータ) (2023-02-28T13:17:56Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。