論文の概要: NAUTILUS: boosting Bayesian importance nested sampling with deep
learning
- arxiv url: http://arxiv.org/abs/2306.16923v1
- Date: Thu, 29 Jun 2023 13:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 13:17:52.447680
- Title: NAUTILUS: boosting Bayesian importance nested sampling with deep
learning
- Title(参考訳): nautilus:ディープラーニングによるベイズの重要性向上
- Authors: Johannes U. Lange
- Abstract要約: ベイジアン後部およびエビデンス推定のための重要ネストサンプリング(INS)技術の有効性を高めるための新しい手法を提案する。
我々は、このタスクを達成するために、ニューラルネットワークレグレッションを介してINSとディープラーニングを組み合わせる方法を示す。
また,この手法のオープンソースPython実装であるNAUTILUSを紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel approach to boost the efficiency of the importance
nested sampling (INS) technique for Bayesian posterior and evidence estimation
using deep learning. Unlike rejection-based sampling methods such as vanilla
nested sampling (NS) or Markov chain Monte Carlo (MCMC) algorithms, importance
sampling techniques can use all likelihood evaluations for posterior and
evidence estimation. However, for efficient importance sampling, one needs
proposal distributions that closely mimic the posterior distributions. We show
how to combine INS with deep learning via neural network regression to
accomplish this task. We also introduce NAUTILUS, a reference open-source
Python implementation of this technique for Bayesian posterior and evidence
estimation. We compare NAUTILUS against popular NS and MCMC packages, including
EMCEE, DYNESTY, ULTRANEST and POCOMC, on a variety of challenging synthetic
problems and real-world applications in exoplanet detection, galaxy SED fitting
and cosmology. In all applications, the sampling efficiency of NAUTILUS is
substantially higher than that of all other samplers, often by more than an
order of magnitude. Simultaneously, NAUTILUS delivers highly accurate results
and needs fewer likelihood evaluations than all other samplers tested. We also
show that NAUTILUS has good scaling with the dimensionality of the likelihood
and is easily parallelizable to many CPUs.
- Abstract(参考訳): 本研究では,ベイジアン後部における重要ネストサンプリング(INS)手法の効率化と深層学習を用いたエビデンス推定手法を提案する。
バニラネストサンプリング(NS)やマルコフ連鎖モンテカルロ(MCMC)アルゴリズムのような拒絶に基づくサンプリング手法とは異なり、重要サンプリング技術は後部および証拠推定にすべての可能性評価を使うことができる。
しかし、効率的なサンプリングには、後方分布をよく模倣した提案分布が必要である。
この課題を達成するために,ニューラルネットワーク回帰による ins とディープラーニングを組み合わせる方法を示す。
ベイジアン後方およびエビデンス推定のためのこの技術のリファレンスオープンソースpython実装であるnautilusも紹介する。
我々はnautilusをemcee、dynesty、ultranest、pocomcなどの一般的なnsおよびmcmcパッケージと比較し、様々な挑戦的な合成問題と、太陽系外惑星検出、銀河sedフィッティング、宇宙論における現実世界の応用について比較した。
すべてのアプリケーションにおいて、NAUTILUSのサンプリング効率は、他のすべてのサンプルよりもかなり高く、多くの場合、桁違いに高い。
同時に、NAUTILUSは極めて正確な結果を提供し、テストされた他の全てのサンプルよりも可能性の低い評価を必要とする。
また、NAUTILUSは、可能性の次元に優れたスケーリングを持ち、多くのCPUに容易に並列化可能であることを示す。
関連論文リスト
- Faster Stochastic Variance Reduction Methods for Compositional MiniMax
Optimization [50.10952609321302]
合成ミニマックス最適化は、さまざまな機械学習領域において重要な課題である。
構成最小最適化の現在の方法は、最適以下の複雑さや、大きなバッチサイズに大きく依存することによって悩まされている。
本稿では,Nested STOchastic Recursive Momentum (NSTORM)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T14:57:21Z) - Entropy-based Training Methods for Scalable Neural Implicit Sampler [15.978655106034113]
非正規化対象分布からの効率的なサンプリングは、科学計算と機械学習の基本的な問題である。
本稿では,これらの制約を克服する,効率的でスケーラブルなニューラル暗黙サンプリング手法を提案する。
提案手法では, 提案手法を応用して, 提案手法を用いることにより, 精度の低い大量のサンプルを生成できる。
論文 参考訳(メタデータ) (2023-06-08T05:56:05Z) - Parallelized Acquisition for Active Learning using Monte Carlo Sampling [0.0]
近年,ガウス過程(GP)回帰に基づく後部エミュレータの使用が注目されている。
ほぼ恥ずかしい並列シーケンシャルサンプリング器を用いて, 後頭部のモンテカルロサンプルを生成する方法を示す。
得られたほぼ分類されたモンテカルロサンプルは、逐次条件付き取得関数値に従ってランク付けされた候補のバッチを生成するために使用される。
論文 参考訳(メタデータ) (2023-05-30T17:57:34Z) - Sample Efficient Reinforcement Learning in Mixed Systems through
Augmented Samples and Its Applications to Queueing Networks [22.20726152012564]
本稿では,2種類の状態を持つシステムに関わる強化学習問題のクラスについて考察する。
拡張データサンプルを生成することで学習を高速化するサンプル効率のよい手法を提案する。
論文 参考訳(メタデータ) (2023-05-25T21:29:11Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - A Provably Efficient Sample Collection Strategy for Reinforcement
Learning [123.69175280309226]
オンライン強化学習(RL)における課題の1つは、エージェントがその振る舞いを最適化するために、環境の探索とサンプルの活用をトレードオフする必要があることである。
1) 生成モデル(環境のスパースシミュレータなど)にアクセス可能な状態のサンプル数を規定する「対象別」アルゴリズム,2) 所定のサンプルをできるだけ早く生成する「対象別」サンプル収集。
論文 参考訳(メタデータ) (2020-07-13T15:17:35Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Learning to Importance Sample in Primary Sample Space [22.98252856114423]
本稿では,ニューラルネットワークを用いて,サンプルの集合に代表される所望密度からサンプルを抽出する方法を学習する,新たな重要サンプリング手法を提案する。
提案手法は, 様々なシナリオにおいて, 効果的な分散低減につながることを示す。
論文 参考訳(メタデータ) (2018-08-23T16:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。