論文の概要: BayesFlow: Learning complex stochastic models with invertible neural
networks
- arxiv url: http://arxiv.org/abs/2003.06281v4
- Date: Tue, 1 Dec 2020 19:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:15:10.654543
- Title: BayesFlow: Learning complex stochastic models with invertible neural
networks
- Title(参考訳): BayesFlow: 可逆ニューラルネットワークを用いた複雑な確率モデル学習
- Authors: Stefan T. Radev, Ulf K. Mertens, Andreass Voss, Lynton Ardizzone,
Ullrich K\"othe
- Abstract要約: 可逆ニューラルネットワークに基づく世界規模のベイズ推定手法を提案する。
BayesFlowは、観測されたデータを最大情報的な要約統計に埋め込むよう訓練された要約ネットワークを組み込んでいる。
本研究では, 人口動態, 疫学, 認知科学, 生態学の難易度モデルに対するベイズフローの有用性を実証する。
- 参考スコア(独自算出の注目度): 3.1498833540989413
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Estimating the parameters of mathematical models is a common problem in
almost all branches of science. However, this problem can prove notably
difficult when processes and model descriptions become increasingly complex and
an explicit likelihood function is not available. With this work, we propose a
novel method for globally amortized Bayesian inference based on invertible
neural networks which we call BayesFlow. The method uses simulation to learn a
global estimator for the probabilistic mapping from observed data to underlying
model parameters. A neural network pre-trained in this way can then, without
additional training or optimization, infer full posteriors on arbitrary many
real datasets involving the same model family. In addition, our method
incorporates a summary network trained to embed the observed data into
maximally informative summary statistics. Learning summary statistics from data
makes the method applicable to modeling scenarios where standard inference
techniques with hand-crafted summary statistics fail. We demonstrate the
utility of BayesFlow on challenging intractable models from population
dynamics, epidemiology, cognitive science and ecology. We argue that BayesFlow
provides a general framework for building amortized Bayesian parameter
estimation machines for any forward model from which data can be simulated.
- Abstract(参考訳): 数学モデルのパラメータを推定することは、科学のほとんど全ての分野において共通の問題である。
しかし、プロセスやモデル記述がますます複雑になり、明確な可能性関数が利用できない場合、この問題は顕著に困難である。
本研究では,ベイズフロー(BayesFlow)と呼ばれる可逆ニューラルネットワークに基づく世界規模のベイズ推論手法を提案する。
この手法はシミュレーションを用いて観測データから基礎となるモデルパラメータへの確率的マッピングのための大域的推定器を学習する。
この方法で事前トレーニングされたニューラルネットワークは、追加のトレーニングや最適化なしに、同じモデルファミリを含む任意の多数の実データセットの完全な後方を推測することができる。
さらに,本手法では,観測データを最大情報的要約統計に組み込むように訓練された要約ネットワークを組み込む。
データから要約統計を学習することで、手作り要約統計を用いた標準的な推論手法が失敗するシナリオのモデル化に適用できる。
我々は,人口動態学,疫学,認知科学,生態学の難解なモデルに対するベイズフローの有用性を実証する。
ベイズフローは、データをシミュレートできる任意の前方モデルに対して、補正ベイズパラメータ推定マシンを構築するための一般的なフレームワークを提供する。
関連論文リスト
- A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - BayesFlow: Amortized Bayesian Workflows With Neural Networks [0.0]
この原稿はPythonライブラリのBayesFlowを紹介し、アモートされたデータ圧縮と推論のための確立したニューラルネットワークアーキテクチャのシミュレーションベースのトレーニングを行う。
Amortized Bayesian推論は、BayesFlowで実装されているもので、モデルシミュレーションでカスタムニューラルネットワークをトレーニングし、その後のモデル適用のためにこれらのネットワークを再使用することができる。
論文 参考訳(メタデータ) (2023-06-28T08:41:49Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Neural Networks for Parameter Estimation in Intractable Models [0.0]
本稿では,最大安定過程からパラメータを推定する方法を示す。
モデルシミュレーションのデータを入力として使用し,統計的パラメータを学習するために深層ニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-07-29T21:59:48Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Neural Approximate Sufficient Statistics for Implicit Models [34.44047460667847]
我々は、深層ニューラルネットワークの助けを借りて、データの表現を最大化する相互情報の学習として、十分な統計情報を構築するタスクの枠組みを定めている。
従来のベイズ近似計算と最近のニューラル・サイエンス法の両方にアプローチを適用し,様々なタスクにおける性能を向上する。
論文 参考訳(メタデータ) (2020-10-20T07:11:40Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。