論文の概要: Optimality in importance sampling: a gentle survey
- arxiv url: http://arxiv.org/abs/2502.07396v1
- Date: Tue, 11 Feb 2025 09:23:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:06:47.089876
- Title: Optimality in importance sampling: a gentle survey
- Title(参考訳): 重要度サンプリングの最適性:緩やかな調査
- Authors: Fernando Llorente, Luca Martino,
- Abstract要約: モンテカルロサンプリング法の性能は、提案密度の重要な選択に依存する。
この研究は、重要サンプリングにおける最適性の概念に関する徹底的なレビューである。
- 参考スコア(独自算出の注目度): 50.79602839359522
- License:
- Abstract: The performance of the Monte Carlo sampling methods relies on the crucial choice of a proposal density. The notion of optimality is fundamental to design suitable adaptive procedures of the proposal density within Monte Carlo schemes. This work is an exhaustive review around the concept of optimality in importance sampling. Several frameworks are described and analyzed, such as the marginal likelihood approximation for model selection, the use of multiple proposal densities, a sequence of tempered posteriors, and noisy scenarios including the applications to approximate Bayesian computation (ABC) and reinforcement learning, to name a few. Some theoretical and empirical comparisons are also provided.
- Abstract(参考訳): モンテカルロサンプリング法の性能は、提案密度の重要な選択に依存する。
最適性の概念はモンテカルロスキームにおける提案密度の適切な適応手順を設計するために基本である。
この研究は、重要サンプリングにおける最適性の概念に関する徹底的なレビューである。
モデル選択の限界確率近似、複数の提案密度の使用、誘引された後続の列、ベイズ計算(ABC)や強化学習の応用を含むノイズの多いシナリオなど、いくつかのフレームワークが記述され分析されている。
いくつかの理論的および経験的な比較も提供される。
関連論文リスト
- An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Optimal Budgeted Rejection Sampling for Generative Models [54.050498411883495]
判別器を用いた生成モデルの性能向上のために, 還元サンプリング法が提案されている。
提案手法は,まず,最適に最適である最適予算削減サンプリング方式を提案する。
第2に,モデル全体の性能を高めるために,サンプリング方式をトレーニング手順に組み込んだエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:52:41Z) - Efficient Learning for Selecting Top-m Context-Dependent Designs [0.7646713951724012]
文脈に依存した意思決定のためのシミュレーション最適化問題を考察する。
本研究では,各デザインの性能を各コンテキスト下で効率的に学習するためのシーケンシャルサンプリングポリシーを開発する。
数値実験により,提案手法はトップmの文脈依存設計の選択効率を向上することを示した。
論文 参考訳(メタデータ) (2023-05-06T16:11:49Z) - Bayesian Experimental Design for Symbolic Discovery [12.855710007840479]
我々は、ハミルトンモンテカルロを用いて、適切な選択基準を最適化するために制約付き一階法を適用する。
畳み込みを含む予測分布を計算するステップは、数値積分または高速変換法によって計算される。
論文 参考訳(メタデータ) (2022-11-29T01:25:29Z) - Recursive Monte Carlo and Variational Inference with Auxiliary Variables [64.25762042361839]
再帰的補助変数推論(RAVI)はフレキシブルな提案を利用するための新しいフレームワークである。
RAVIは、表現力のある表現力のある家族を推論するためのいくつかの既存の手法を一般化し、統一する。
RAVIの設計枠組みと定理を,SalimansらによるMarkov Chain Variational Inferenceを用いて解析し,改良することにより示す。
論文 参考訳(メタデータ) (2022-03-05T23:52:40Z) - Optimality in Noisy Importance Sampling [66.94202101538939]
雑音の多いIS推定器の最適提案密度を導出する。
雑音の多いISフレームワークにおいて,提案手法と過去の最適性アプローチとの比較を行った。
論文 参考訳(メタデータ) (2022-01-07T12:32:25Z) - Adaptive Importance Sampling meets Mirror Descent: a Bias-variance
tradeoff [7.538482310185135]
適応的な重要度サンプリングの大きな欠点は、重みの大きなばらつきである。
本稿では,一定のパワーで重み付けを行うことを基本原理とする正規化戦略について検討する。
論文 参考訳(メタデータ) (2021-10-29T07:45:24Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。