論文の概要: Evidence Networks: simple losses for fast, amortized, neural Bayesian
model comparison
- arxiv url: http://arxiv.org/abs/2305.11241v2
- Date: Wed, 10 Jan 2024 16:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 17:40:11.280717
- Title: Evidence Networks: simple losses for fast, amortized, neural Bayesian
model comparison
- Title(参考訳): Evidence Networks: 高速、アモート化、ニューラルベイズモデルの比較のための単純な損失
- Authors: Niall Jeffrey, Benjamin D. Wandelt
- Abstract要約: Evidence Networksは、最先端のメソッドがフェールした場合にベイズモデルの比較を可能にする。
リークパリティオード電力変換を導入し、新しいl-POP-Exponential'損失関数を導出する。
Evidence Networks はパラメータ空間の次元性に明示的に依存しており、後続確率密度関数の複雑さと軽度にスケール可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evidence Networks can enable Bayesian model comparison when state-of-the-art
methods (e.g. nested sampling) fail and even when likelihoods or priors are
intractable or unknown. Bayesian model comparison, i.e. the computation of
Bayes factors or evidence ratios, can be cast as an optimization problem.
Though the Bayesian interpretation of optimal classification is well-known,
here we change perspective and present classes of loss functions that result in
fast, amortized neural estimators that directly estimate convenient functions
of the Bayes factor. This mitigates numerical inaccuracies associated with
estimating individual model probabilities. We introduce the leaky parity-odd
power (l-POP) transform, leading to the novel ``l-POP-Exponential'' loss
function. We explore neural density estimation for data probability in
different models, showing it to be less accurate and scalable than Evidence
Networks. Multiple real-world and synthetic examples illustrate that Evidence
Networks are explicitly independent of dimensionality of the parameter space
and scale mildly with the complexity of the posterior probability density
function. This simple yet powerful approach has broad implications for model
inference tasks. As an application of Evidence Networks to real-world data we
compute the Bayes factor for two models with gravitational lensing data of the
Dark Energy Survey. We briefly discuss applications of our methods to other,
related problems of model comparison and evaluation in implicit inference
settings.
- Abstract(参考訳): エビデンスネットワークは、最先端の方法(例えばネストサンプリング)が失敗したときや、可能性や事前が難解であったり、未知であるときでも、ベイズモデルの比較を可能にする。
ベイズモデルの比較、すなわちベイズ因子やエビデンス比の計算は最適化問題として考えられる。
最適分類のベイズ解釈はよく知られているが、ここではベイズ因子の便利関数を直接推定する、素早い非モルト化ニューラルネットワーク推定器のパースペクティブと損失関数のクラスを変更する。
これにより、個々のモデル確率の推定に伴う数値的不正確さが軽減される。
リークパリティオードパワー (l-POP) 変換を導入し, 新規な「l-POP-Exponential」損失関数を導出する。
異なるモデルにおけるデータ確率のニューラル密度推定について検討し、Evidence Networksよりも正確でスケーラブルであることを示す。
複数の実世界および合成例は、エビデンスネットワークがパラメータ空間の次元性から明確に独立しており、後続確率密度関数の複雑さと軽度にスケールしていることを示している。
このシンプルで強力なアプローチは、モデル推論タスクに広く影響します。
実世界のデータに対するエビデンスネットワークの応用として、ダークエネルギーサーベイの重力レンズデータを持つ2つのモデルのベイズ係数を計算する。
我々は,暗黙的推論設定におけるモデル比較と評価の他の関連する問題に対する手法の適用について簡単に論じる。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Variational Inference on the Final-Layer Output of Neural Networks [3.146069168382982]
本稿では、最終層出力空間(VIFO)における変分推論を行うことにより、両方のアプローチの利点を組み合わせることを提案する。
ニューラルネットワークを用いて確率出力の平均と分散を学習する。
実験により、VIFOは、特に分布データ外において、実行時間と不確実性定量化の観点から良いトレードオフを提供することが示された。
論文 参考訳(メタデータ) (2023-02-05T16:19:01Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Model Comparison in Approximate Bayesian Computation [0.456877715768796]
自然科学における一般的な問題は、観測されたデータに照らして競合するモデルの比較である。
この枠組みは、実際に使用されるほとんどのモデルにとって難解な確率関数の計算に依存している。
ABCにおけるベイズモデルの比較を行うための新しい効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T10:24:16Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。