論文の概要: Efficient MCMC Sampling with Expensive-to-Compute and Irregular Likelihoods
- arxiv url: http://arxiv.org/abs/2505.10448v1
- Date: Thu, 15 May 2025 16:06:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.405321
- Title: Efficient MCMC Sampling with Expensive-to-Compute and Irregular Likelihoods
- Title(参考訳): 重大かつ不規則な形状のMCMCサンプリング
- Authors: Conor Rosato, Harvinder Lehal, Simon Maskell, Lee Devlin, Malcolm Strens,
- Abstract要約: 計算オーバーヘッドを低減するためにサブセット評価を利用するサンプリングアルゴリズムをいくつか検討する。
我々はTaylor拡張の代わりにデータ駆動プロキシを導入し、新しい低コスト対応コントローラを定義する。
適応型提案とデータ駆動型プロキシを併用した改良版"Importance with Nested Training Samples"(HINTS)は、固定された計算予算で最高のサンプリングエラーを得る。
- 参考スコア(独自算出の注目度): 2.299872239734834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian inference with Markov Chain Monte Carlo (MCMC) is challenging when the likelihood function is irregular and expensive to compute. We explore several sampling algorithms that make use of subset evaluations to reduce computational overhead. We adapt the subset samplers for this setting where gradient information is not available or is unreliable. To achieve this, we introduce data-driven proxies in place of Taylor expansions and define a novel computation-cost aware adaptive controller. We undertake an extensive evaluation for a challenging disease modelling task and a configurable task with similar irregularity in the likelihood surface. We find our improved version of Hierarchical Importance with Nested Training Samples (HINTS), with adaptive proposals and a data-driven proxy, obtains the best sampling error in a fixed computational budget. We conclude that subset evaluations can provide cheap and naturally-tempered exploration, while a data-driven proxy can pre-screen proposals successfully in explored regions of the state space. These two elements combine through hierarchical delayed acceptance to achieve efficient, exact sampling.
- Abstract(参考訳): マルコフ・チェイン・モンテカルロ(MCMC)によるベイズ推定は、確率関数が不規則で計算に費用がかかる場合に困難である。
計算オーバーヘッドを低減するためにサブセット評価を利用するサンプリングアルゴリズムをいくつか検討する。
この設定では、勾配情報が入手できない、あるいは信頼性の低いサブセットのサンプルを適用できます。
これを実現するために、Taylor拡張の代わりにデータ駆動プロキシを導入し、新しい計算に配慮した適応型コントローラを定義する。
本研究は, 難病モデリングの課題と, 表面の類似した不規則性を有する構成可能な課題について, 広範囲に評価する。
適応型提案とデータ駆動型プロキシを備えた階層型トレーニングサンプル(HINTS)の改良版は、固定された計算予算で最高のサンプリングエラーを得る。
我々は、サブセット評価は安価で自然に検知された探索を可能にするが、一方、データ駆動型プロキシは、州領域の探索領域で提案を正常にプレスクリーンすることができると結論付けている。
これら2つの要素は階層的遅延受容によって結合し、効率的で正確なサンプリングを実現する。
関連論文リスト
- Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Conditional Sampling of Variational Autoencoders via Iterated
Approximate Ancestral Sampling [7.357511266926065]
変分オートエンコーダ(VAE)の条件付きサンプリングは、データ計算の欠如など、様々なアプリケーションで必要とされるが、計算上は難解である。
基本的条件付きサンプリングはMetropolis-within-Gibbs (MWG)である
論文 参考訳(メタデータ) (2023-08-17T16:08:18Z) - High-dimensional Contextual Bandit Problem without Sparsity [8.782204980889077]
本稿では,この問題に対処し,その性能を検証するための探索列コミット(EtC)アルゴリズムを提案する。
我々は、ETCアルゴリズムの最適レートを$T$で導出し、探索とエクスプロイトのバランスをとることで、このレートを実現できることを示す。
本稿では,最適バランスを適応的に求める適応探索定理 (AEtC) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T15:29:32Z) - Optimal Horizon-Free Reward-Free Exploration for Linear Mixture MDPs [60.40452803295326]
線形マルコフ決定過程(MDP)を学習するための新たな報酬なしアルゴリズムを提案する。
我々のアルゴリズムの核心は、探索駆動の擬似回帰を用いた不確実性重み付き値目標回帰である。
我々のアルゴリズムは$tilde O(d2varepsilon-2)$ episodesを探索するだけで、$varepsilon$-optimal policyを見つけることができる。
論文 参考訳(メタデータ) (2023-03-17T17:53:28Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Sampling from Discrete Energy-Based Models with Quality/Efficiency
Trade-offs [3.491202838583993]
エネルギーベースモデル(EBM)は、確率分布の非常に柔軟な仕様を可能にする。
これらの分布から正確なサンプルを得るためのメカニズムは提供されていない。
そこで本研究では,サンプリング効率とサンプリング品質のトレードオフを可能にする,新しい近似サンプリング手法であるQuasi Rejection Smpling (QRS)を提案する。
論文 参考訳(メタデータ) (2021-12-10T17:51:37Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - A Provably Efficient Sample Collection Strategy for Reinforcement
Learning [123.69175280309226]
オンライン強化学習(RL)における課題の1つは、エージェントがその振る舞いを最適化するために、環境の探索とサンプルの活用をトレードオフする必要があることである。
1) 生成モデル(環境のスパースシミュレータなど)にアクセス可能な状態のサンプル数を規定する「対象別」アルゴリズム,2) 所定のサンプルをできるだけ早く生成する「対象別」サンプル収集。
論文 参考訳(メタデータ) (2020-07-13T15:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。