論文の概要: Adversarial Bayesian Simulation
- arxiv url: http://arxiv.org/abs/2208.12113v1
- Date: Thu, 25 Aug 2022 14:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:54:09.460161
- Title: Adversarial Bayesian Simulation
- Title(参考訳): 逆ベイズシミュレーション
- Authors: Yuexi Wang, Veronika Ro\v{c}kov\'a
- Abstract要約: 我々は,敵対的ネットワーク(GAN)と敵対的変動ベイズに基づく深いニューラル暗黙的サンプリング器を用いてベイズ近似計算(ABC)を橋渡しする。
我々は,逆最適化問題を解くことで,直接後部を狙うベイズ型GANサンプリング器を開発した。
本研究は, ニューラルネットワーク生成器と識別器において, 真と近似後部の典型的な総変動距離が0に収束することを示す。
- 参考スコア(独自算出の注目度): 0.9137554315375922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the absence of explicit or tractable likelihoods, Bayesians often resort
to approximate Bayesian computation (ABC) for inference. Our work bridges ABC
with deep neural implicit samplers based on generative adversarial networks
(GANs) and adversarial variational Bayes. Both ABC and GANs compare aspects of
observed and fake data to simulate from posteriors and likelihoods,
respectively. We develop a Bayesian GAN (B-GAN) sampler that directly targets
the posterior by solving an adversarial optimization problem. B-GAN is driven
by a deterministic mapping learned on the ABC reference by conditional GANs.
Once the mapping has been trained, iid posterior samples are obtained by
filtering noise at a negligible additional cost. We propose two post-processing
local refinements using (1) data-driven proposals with importance reweighing,
and (2) variational Bayes. We support our findings with frequentist-Bayesian
results, showing that the typical total variation distance between the true and
approximate posteriors converges to zero for certain neural network generators
and discriminators. Our findings on simulated data show highly competitive
performance relative to some of the most recent likelihood-free posterior
simulators.
- Abstract(参考訳): 明示的あるいは扱いやすい可能性がない場合、ベイジアンはしばしば推定のために近似ベイジアン計算(abc)に頼る。
我々の研究は、GAN(Generative Adversarial Network)と逆効果ベイズに基づくディープ・ニューラル暗黙のサンプルでABCを橋渡しする。
abcとgansは、観測データと偽データとを比較して、それぞれ後方と確率からシミュレートする。
我々は, 逆最適化問題を解くことで, 直接後方を狙うベイズ型GAN(B-GAN)サンプリング器を開発した。
B-GANは条件付きGANによってABC参照で学習された決定論的マッピングによって駆動される。
マッピングがトレーニングされた後、ノイズを無視可能な追加コストでフィルタリングすることで、後部サンプルを得る。
本稿では,(1)データ駆動型リウィーディングと(2)変分ベイズを用いた局所改善処理の2つの方法を提案する。
本研究は,ニューラルネットワーク生成器や識別器において,真と近似後部の典型的な総変動距離が0に収束することを示す。
シミュレーションデータを用いた結果,近年の近未来型後方シミュレータと比較して高い競争性能を示した。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - A new perspective on Bayesian Operational Modal Analysis [0.0]
本稿では,ベイジアンOMAの新しい視点として,ベイジアン部分空間識別(SSI)アルゴリズムを提案する。
最初のケーススタディは、シミュレーションされた多自由度線形システムのデータを用いたベンチマーク研究である。
自然周波数と一致する平均値の後方分布は, 自然周波数から離れた値よりも低い分散を示すことが観察された。
論文 参考訳(メタデータ) (2024-08-16T11:11:56Z) - Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning [5.340736751238338]
前方マッピングの評価は, 後部サンプル生成時に完全に回避可能であることを示す。
この観測は、最近導入された無限次元拡散モデルの枠組みに一般化されることを証明している。
論文 参考訳(メタデータ) (2024-05-24T15:33:27Z) - Hessian-Free Laplace in Bayesian Deep Learning [44.16006844888796]
Hessian-free Laplace (HFL)近似は、その分散を推定するために、ログ後部とネットワーク予測の両方の曲率を使用する。
ベイズ深層学習におけるLAの標準的な仮定の下では、HFLはLAと同じ分散を目標とし、事前学習されたネットワークで効率よく再生可能であることを示す。
論文 参考訳(メタデータ) (2024-03-15T20:47:39Z) - Favour: FAst Variance Operator for Uncertainty Rating [0.034530027457862]
機械学習予測を解釈するための重要なアプローチとしてベイズニューラルネットワーク(BNN)が登場した。
後部分布からサンプリングすることで、データサイエンティストは推論の不確実性を推定することができる。
以前の研究は、ネットワークを介して後部の第1モーメントと第2モーメントを伝播することを提案した。
この方法はサンプリングよりも遅いため、伝播分散を近似する必要がある。
私たちの貢献は、より原則化された分散伝播フレームワークです。
論文 参考訳(メタデータ) (2023-11-21T22:53:20Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Learning to solve Bayesian inverse problems: An amortized variational inference approach using Gaussian and Flow guides [0.0]
本研究では,ベイズ逆写像,すなわちデータから後部への写像を学習することで,リアルタイムな推論を可能にする手法を開発する。
我々のアプローチは、ニューラルネットワークの前方通過のコストで、所定の観測のための後部分布を提供する。
論文 参考訳(メタデータ) (2023-05-31T16:25:07Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。