論文の概要: Variational Inference for GARCH-family Models
- arxiv url: http://arxiv.org/abs/2310.03435v1
- Date: Thu, 5 Oct 2023 10:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:46:50.015352
- Title: Variational Inference for GARCH-family Models
- Title(参考訳): GARCHファミリーモデルの変分推論
- Authors: Martin Magris, Alexandros Iosifidis
- Abstract要約: 変分推論は、機械学習モデルにおけるベイズ推論の堅牢なアプローチである。
本研究では,変分推論がベイズ学習の魅力的な,極めてよく校正された,競争力のある方法であることを示す。
- 参考スコア(独自算出の注目度): 84.84082555964086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Bayesian estimation of GARCH-family models has been typically addressed
through Monte Carlo sampling. Variational Inference is gaining popularity and
attention as a robust approach for Bayesian inference in complex machine
learning models; however, its adoption in econometrics and finance is limited.
This paper discusses the extent to which Variational Inference constitutes a
reliable and feasible alternative to Monte Carlo sampling for Bayesian
inference in GARCH-like models. Through a large-scale experiment involving the
constituents of the S&P 500 index, several Variational Inference optimizers, a
variety of volatility models, and a case study, we show that Variational
Inference is an attractive, remarkably well-calibrated, and competitive method
for Bayesian learning.
- Abstract(参考訳): ガーチ族モデルのベイズ推定はモンテカルロサンプリングによって取り組まれている。
変分推論は、複雑な機械学習モデルにおけるベイズ推論の堅牢なアプローチとして人気と注目を集めている。
本稿では, 変分推論が, GARCH 様モデルにおけるベイズ推定のためのモンテカルロサンプリングの信頼性と実現可能な代替手段となる範囲について論じる。
S&P 500指数の構成、いくつかの変分推論オプティマイザ、様々なボラティリティモデル、そしてケーススタディを含む大規模な実験を通して、変分推論はベイズ学習にとって魅力的で、極めてよく校正され、競争的な方法であることを示した。
関連論文リスト
- Robust Inference of Dynamic Covariance Using Wishart Processes and Sequential Monte Carlo [2.6347238599620115]
本稿では,WishartプロセスのためのSMCサンプルについて紹介する。
SMCサンプリングは, 動的共分散の最も頑健な推定と外乱予測をもたらすことを示す。
提案手法が臨床うつ病のデータセットに有効であることを示す。
論文 参考訳(メタデータ) (2024-06-07T09:48:11Z) - Bayesian learning of Causal Structure and Mechanisms with GFlowNets and Variational Bayes [51.84122462615402]
本研究では,変分ベイズ-DAG-GFlowNetを用いて因果モデルの構造と機構を学習する手法を提案する。
我々は,GFlowNetを用いたベイズ因果構造学習の手法を拡張し,線形ガウスモデルのパラメータを学習する。
論文 参考訳(メタデータ) (2022-11-04T21:57:39Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - A Variational Approach to Bayesian Phylogenetic Inference [7.251627034538359]
ベイズ系統解析のための変分フレームワークを提案する。
我々はマルコフ勾配法による変分近似を訓練し、連続的および離散的な変分パラメータに対する推定器を採用する。
実データ系統推定問題に対するベンチマーク実験により,本手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2022-04-16T08:23:48Z) - Recursive Monte Carlo and Variational Inference with Auxiliary Variables [64.25762042361839]
再帰的補助変数推論(RAVI)はフレキシブルな提案を利用するための新しいフレームワークである。
RAVIは、表現力のある表現力のある家族を推論するためのいくつかの既存の手法を一般化し、統一する。
RAVIの設計枠組みと定理を,SalimansらによるMarkov Chain Variational Inferenceを用いて解析し,改良することにより示す。
論文 参考訳(メタデータ) (2022-03-05T23:52:40Z) - Surrogate Likelihoods for Variational Annealed Importance Sampling [11.144915453864854]
我々は他の変分パラメータと共同で学習できる代理可能性を導入する。
本手法は,確率的プログラミングフレームワークにおけるブラックボックス推論に適していることを示す。
論文 参考訳(メタデータ) (2021-12-22T19:49:45Z) - Approximate Bayesian inference from noisy likelihoods with Gaussian
process emulated MCMC [0.24275655667345403]
ガウス過程(GP)を用いた対数様関数をモデル化する。
主な方法論的革新は、正確なメトロポリス・ハスティングス(MH)サンプリングが行う進歩をエミュレートするためにこのモデルを適用することである。
得られた近似サンプリング器は概念的には単純で、試料効率が高い。
論文 参考訳(メタデータ) (2021-04-08T17:38:02Z) - Scalable Control Variates for Monte Carlo Methods via Stochastic
Optimization [62.47170258504037]
本稿では,制御,カーネル,ニューラルネットワークを用いた既存のアプローチを包含し,一般化するフレームワークを提案する。
新たな理論的結果は、達成可能な分散還元に関する洞察を与えるために提示され、ベイズ推定への応用を含む経験的評価が支持される。
論文 参考訳(メタデータ) (2020-06-12T22:03:25Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。