論文の概要: BayesFlow 2.0: Multi-Backend Amortized Bayesian Inference in Python
- arxiv url: http://arxiv.org/abs/2602.07098v1
- Date: Fri, 06 Feb 2026 15:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.44669
- Title: BayesFlow 2.0: Multi-Backend Amortized Bayesian Inference in Python
- Title(参考訳): BayesFlow 2.0: Pythonにおけるマルチバックエンドのベイズ推論
- Authors: Lars Kühmichel, Jerry M. Huang, Valentin Pratz, Jonas Arruda, Hans Olischläger, Daniel Habermann, Simon Kucharsky, Lasse Elsemüller, Aayush Mishra, Niels Bracher, Svenja Jedhoff, Marvin Schmitt, Paul-Christian Bürkner, Stefan T. Radev,
- Abstract要約: ABI (Amortized Bayesian Inference) はベイズの計算問題を解くための道を提供する。
ABIはモデルシミュレーションでニューラルネットワークをトレーニングし、モデルが実装された量を素早く推測することでユーザに報酬を与える。
汎用ABIのためのPythonライブラリBayesFlow、Version 2.0を提示する。
- 参考スコア(独自算出の注目度): 8.512526672162105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Bayesian inference involves a mixture of computational methods for estimating, validating, and drawing conclusions from probabilistic models as part of principled workflows. An overarching motif of many Bayesian methods is that they are relatively slow, which often becomes prohibitive when fitting complex models to large data sets. Amortized Bayesian inference (ABI) offers a path to solving the computational challenges of Bayes. ABI trains neural networks on model simulations, rewarding users with rapid inference of any model-implied quantity, such as point estimates, likelihoods, or full posterior distributions. In this work, we present the Python library BayesFlow, Version 2.0, for general-purpose ABI. Along with direct posterior, likelihood, and ratio estimation, the software includes support for multiple popular deep learning backends, a rich collection of generative networks for sampling and density estimation, complete customization and high-level interfaces, as well as new capabilities for hyperparameter optimization, design optimization, and hierarchical modeling. Using a case study on dynamical system parameter estimation, combined with comparisons to similar software, we show that our streamlined, user-friendly workflow has strong potential to support broad adoption.
- Abstract(参考訳): 現代のベイズ推論は、原理化されたワークフローの一部として確率モデルからの結論を推定、検証、描画するための計算手法の混合を含む。
多くのベイズ的手法の網羅的なモチーフは、それらが比較的遅く、しばしば複雑なモデルを大きなデータセットに適合させるときに禁じられることである。
ABI (Amortized Bayesian Inference) はベイズの計算問題を解くための道を提供する。
ABIは、モデルシミュレーションでニューラルネットワークをトレーニングし、ポイント推定、可能性、完全な後部分布など、モデルによって実装されたあらゆる量の迅速な推測をユーザに与えます。
本稿では,汎用ABIのためのPythonライブラリBayesFlow,Version 2.0を紹介する。
直接後部、可能性、比率の推定に加えて、ソフトウェアには、複数の人気のあるディープラーニングバックエンドのサポート、サンプリングと密度推定のための生成ネットワークの豊富なコレクション、完全なカスタマイズとハイレベルインターフェース、ハイパーパラメータ最適化、設計最適化、階層モデリングの新機能が含まれている。
動的システムパラメータ推定のケーススタディを用いて、類似のソフトウェアとの比較と組み合わせて、我々の合理化されたユーザフレンドリーなワークフローは、広く採用される可能性が強いことを示す。
関連論文リスト
- Amortized Bayesian Multilevel Models [9.831471158899644]
マルチレベルモデル(MLM)はベイズワークフローの中心的なビルディングブロックである。
MLMは重要な計算上の課題を生じさせ、しばしばその推定と評価は合理的な時間制約の中で難解である。
シミュレーションに基づく推論の最近の進歩は、深層生成ネットワークを用いた複雑な確率モデルに対処するための有望な解決策を提供する。
マルチレベルモデルの確率的因数分解を利用して、効率的なニューラルネットワークトレーニングと、未知のデータセットに対する後続の即時推論を容易にするニューラルネットワークアーキテクチャのファミリーを探索する。
論文 参考訳(メタデータ) (2024-08-23T17:11:04Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - BayesFlow: Amortized Bayesian Workflows With Neural Networks [0.0]
この原稿はPythonライブラリのBayesFlowを紹介し、アモートされたデータ圧縮と推論のための確立したニューラルネットワークアーキテクチャのシミュレーションベースのトレーニングを行う。
Amortized Bayesian推論は、BayesFlowで実装されているもので、モデルシミュレーションでカスタムニューラルネットワークをトレーニングし、その後のモデル適用のためにこれらのネットワークを再使用することができる。
論文 参考訳(メタデータ) (2023-06-28T08:41:49Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate ranks [33.414682601242006]
本稿では,非支配解と結合累積分布関数の極端量子化との自然な関係を示す。
このリンクにより、我々はPareto対応CDFインジケータと関連する取得関数BOtiedを提案する。
種々の合成および実世界の問題に対する実験により,BOtied は最先端MOBO 取得関数より優れていることが示された。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。