論文の概要: Monte Carlo and quasi-Monte Carlo integration for likelihood functions
- arxiv url: http://arxiv.org/abs/2506.21733v1
- Date: Thu, 26 Jun 2025 19:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:22.993112
- Title: Monte Carlo and quasi-Monte Carlo integration for likelihood functions
- Title(参考訳): 確率関数に対するモンテカルロおよび準モンテカルロ積分
- Authors: Yanbo Tang,
- Abstract要約: 我々は,モンテカルロ法と準モンテカルロ法(QMC)の積分誤差を比較し,後続分布の正規化定数と一定の限界確率を近似する。
積分の次元が無限大になる傾向にある$n$と$m$として固定されている場合、MC積分の相対誤差のスケーリングレートは、追加の$n1/2log(n)p/2$データ依存因子を含む。
この研究のさらなる貢献は、ホルトン系列に対する星の差の高次元スケーリングに縛られることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We compare the integration error of Monte Carlo (MC) and quasi-Monte Carlo (QMC) methods for approximating the normalizing constant of posterior distributions and certain marginal likelihoods. In doing so, we characterize the dependency of the relative and absolute integration errors on the number of data points ($n$), the number of grid points ($m$) and the dimension of the integral ($p$). We find that if the dimension of the integral remains fixed as $n$ and $m$ tend to infinity, the scaling rate of the relative error of MC integration includes an additional $n^{1/2}\log(n)^{p/2}$ data-dependent factor, while for QMC this factor is $\log(n)^{p/2}$. In this scenario, QMC will outperform MC if $\log(m)^{p - 1/2}/\sqrt{mn\log(n)} < 1$, which differs from the usual result that QMC will outperform MC if $\log(m)^p/m^{1/2} < 1$.The accuracies of MC and QMC methods are also examined in the high-dimensional setting as $p \rightarrow \infty$, where MC gives more optimistic results as the scaling in dimension is slower than that of QMC when the Halton sequence is used to construct the low discrepancy grid; however both methods display poor dimensional scaling as expected. An additional contribution of this work is a bound on the high-dimensional scaling of the star discrepancy for the Halton sequence.
- Abstract(参考訳): 我々は,モンテカルロ法と準モンテカルロ法(QMC)の積分誤差を比較し,後続分布の正規化定数と一定の限界確率を近似する。
その際、相対積分誤差と絶対積分誤差は、データポイント数(n$)、グリッドポイント数(m$)、積分の次元(p$)に依存する。
積分の次元が無限大になる傾向にある$n$と$m$として固定されている場合、MC積分の相対誤差のスケーリングレートは、追加の$n^{1/2}\logを含む。
(n)^{p/2}$ data-dependent factor、QMCでは$\logである。
(n)^{p/2}$。
このシナリオでは、QMCは$\log で MC を上回っます。
(m)^{p - 1/2}/\sqrt{mn\log
(n)} < 1$ は、QMCが$\log で MC を上回る通常の結果とは異なる。
(m)^p/m^{1/2} < 1$。
MC法とQMC法の精度は高次元設定においても$p \rightarrow \infty$として検証されるが、MC法は低差分格子を構成するためにハルトン列を用いる場合のQMCのスケーリングが遅いため、MC法はより楽観的な結果を与える。
この研究のさらなる貢献は、ホルトン系列に対する星の差の高次元スケーリングに縛られることである。
関連論文リスト
- Randomized Quasi-Monte Carlo Features for Kernel Approximation [3.105656247358225]
ランダム化準モンテカルロ法(RQMC)のカーネルベース学習におけるランダム特徴近似への応用について検討する。
古典的モンテカルロ法(MC)と比較して、RQMCは決定論的近似誤差境界を改善する。
RQMC法は低次元と中程度の高次元の両方で安定した性能を維持していることを示す。
論文 参考訳(メタデータ) (2025-03-08T03:38:28Z) - Measuring quantum relative entropy with finite-size effect [53.64687146666141]
相対エントロピー$D(rho|sigma)$を$sigma$が知られているときに推定する。
我々の推定器は次元$d$が固定されたときにCram'er-Rao型境界に達する。
論文 参考訳(メタデータ) (2024-06-25T06:07:20Z) - Efficient Sampling on Riemannian Manifolds via Langevin MCMC [51.825900634131486]
本稿では,Gibs 分布 $d pi* = eh d vol_g$ over aian manifold $M$ via (geometric) Langevin MCMC。
この結果は、$pi*$ が非指数的であり、$Mh$ が負のリッチ曲率を持つような一般的な設定に適用できる。
論文 参考訳(メタデータ) (2024-02-15T22:59:14Z) - SMC Is All You Need: Parallel Strong Scaling [0.695967916921061]
並列高強度スケーリングを実現するための完全並列シーケンシャルモンテカルロ法(pSMC)を開発した。
pSMC は無限小精度 MSE$=O(varepsilon2)$ に収束し、固定された有限時間複素度コスト=O(1)$ であり、効率リークがない。
論文 参考訳(メタデータ) (2024-02-09T04:13:38Z) - Convergence Analysis of Stochastic Gradient Descent with MCMC Estimators [8.493584276672971]
勾配降下(SGD)とその変種は機械学習に不可欠である。
本稿では,マルコフ連鎖モンテカルロ(MCMC)推定器を用いて勾配を計算するSGDアルゴリズムについて考察する。
MCMC-SGDはサドル点から脱出し、$(epsilon,epsilon1/4)$2次定常点に達することが示されている。
論文 参考訳(メタデータ) (2023-03-19T08:29:49Z) - Polyak-Ruppert Averaged Q-Leaning is Statistically Efficient [90.14768299744792]
我々はPolyak-Ruppert 平均 Q-leaning (平均 Q-leaning) を用いた同期 Q-learning を$gamma$-discounted MDP で検討した。
繰り返し平均$barboldsymbolQ_T$に対して正規性を確立する。
要するに、我々の理論分析は、Q-Leaningの平均は統計的に効率的であることを示している。
論文 参考訳(メタデータ) (2021-12-29T14:47:56Z) - A New Framework for Variance-Reduced Hamiltonian Monte Carlo [88.84622104944503]
分散還元型ハミルトン・モンテカルロ法 (HMC) の新たなフレームワークを提案し,$L$-smooth および $m$-strongly log-concave 分布からサンプリングする。
本研究では,SAGA法やSVRG法をベースとした非バイアス勾配推定器を用いて,バッチサイズを小さくすることで,高い勾配効率が得られることを示す。
総合的および実世界のベンチマークデータによる実験結果から、我々の新しいフレームワークは、完全な勾配と勾配HMCアプローチを著しく上回っていることが示された。
論文 参考訳(メタデータ) (2021-02-09T02:44:24Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。