論文の概要: BayesSum: Bayesian Quadrature in Discrete Spaces
- arxiv url: http://arxiv.org/abs/2512.16105v1
- Date: Thu, 18 Dec 2025 02:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.888368
- Title: BayesSum: Bayesian Quadrature in Discrete Spaces
- Title(参考訳): ベイズサム:離散空間におけるベイズ的四辺形
- Authors: Sophia Seulkee Kang, François-Xavier Briol, Toni Karvonen, Zonghao Chen,
- Abstract要約: モンテカルロやロシアのルーレット推定器を含む既存のアプローチは一貫性があるが、正確な結果を得るためには大量のサンプルを必要とすることが多い。
ベイズ二次の離散領域への拡張である新しい推定器 emphBayesSum を提案する。
- 参考スコア(独自算出の注目度): 8.571182593542565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the challenging computational problem of estimating intractable expectations over discrete domains. Existing approaches, including Monte Carlo and Russian Roulette estimators, are consistent but often require a large number of samples to achieve accurate results. We propose a novel estimator, \emph{BayesSum}, which is an extension of Bayesian quadrature to discrete domains. It is more sample efficient than alternatives due to its ability to make use of prior information about the integrand through a Gaussian process. We show this through theory, deriving a convergence rate significantly faster than Monte Carlo in a broad range of settings. We also demonstrate empirically that our proposed method does indeed require fewer samples on several synthetic settings as well as for parameter estimation for Conway-Maxwell-Poisson and Potts models.
- Abstract(参考訳): 本稿では、離散領域に対する難解な期待を推定する難解な計算問題に対処する。
モンテカルロやロシアのルーレット推定器を含む既存のアプローチは一貫性があるが、正確な結果を得るためには大量のサンプルを必要とすることが多い。
ベイズ二次の離散領域への拡張である新しい推定器 \emph{BayesSum} を提案する。
ガウス過程を通じて積分に関する事前情報を利用することができるため、代替よりもサンプリング効率が高い。
理論を通してこれを示し、幅広い設定においてモンテカルロよりもはるかに早く収束率を導出する。
また,提案手法は,コンウェイ・マクスウェル・ポアソンモデルとポッツモデルに対するパラメータ推定だけでなく,いくつかの合成条件におけるサンプルが少ないことを実証的に示す。
関連論文リスト
- Nested Expectations with Kernel Quadrature [6.531113005552847]
ネストされたモンテカルロやマルチレベルモンテカルロのような既存のアルゴリズムは一貫性があることが知られているが、内部レベルと外部レベルの両方で多くのサンプルを必要とする。
ネストしたカーネルの2次推定器からなる新しい推定器を提案する。
論文 参考訳(メタデータ) (2025-02-25T15:19:10Z) - Bayesian Circular Regression with von Mises Quasi-Processes [57.88921637944379]
本研究では、円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
後部推論のために,高速ギブズサンプリングに寄与するストラトノビッチ様拡張法を導入する。
本研究では,このモデルを用いて風向予測と走行歩行周期のパーセンテージを関節角度の関数として適用する実験を行った。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates [5.13323375365494]
我々は,強い対数対数データの下での拡散に基づく生成モデルの収束挙動を理論的に保証する。
スコア推定に使用される関数のクラスは、スコア関数上のリプシッツネスの仮定を避けるために、リプシッツ連続関数からなる。
この手法はサンプリングアルゴリズムにおいて最もよく知られた収束率をもたらす。
論文 参考訳(メタデータ) (2023-11-22T18:40:45Z) - Parallelized Acquisition for Active Learning using Monte Carlo Sampling [0.0]
近年,ガウス過程(GP)回帰に基づく後部エミュレータの使用が注目されている。
ほぼ恥ずかしい並列シーケンシャルサンプリング器を用いて, 後頭部のモンテカルロサンプルを生成する方法を示す。
得られたほぼ分類されたモンテカルロサンプルは、逐次条件付き取得関数値に従ってランク付けされた候補のバッチを生成するために使用される。
論文 参考訳(メタデータ) (2023-05-30T17:57:34Z) - Langevin Monte Carlo for Contextual Bandits [72.00524614312002]
Langevin Monte Carlo Thompson Sampling (LMC-TS) が提案されている。
提案アルゴリズムは,文脈的帯域幅の特別な場合において,最高のトンプソンサンプリングアルゴリズムと同じサブ線形残差を達成できることを示す。
論文 参考訳(メタデータ) (2022-06-22T17:58:23Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。