論文の概要: Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network
- arxiv url: http://arxiv.org/abs/2305.19366v2
- Date: Mon, 30 Oct 2023 14:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 23:50:56.555047
- Title: Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network
- Title(参考訳): 単一生成フローネットワークによるグラフィカル構造とパラメータのジョイントベイズ推定
- Authors: Tristan Deleu, Mizu Nishikawa-Toomey, Jithendaraa Subramanian, Nikolay
Malkin, Laurent Charlin, Yoshua Bengio
- Abstract要約: 本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
- 参考スコア(独自算出の注目度): 59.79008107609297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Flow Networks (GFlowNets), a class of generative models over
discrete and structured sample spaces, have been previously applied to the
problem of inferring the marginal posterior distribution over the directed
acyclic graph (DAG) of a Bayesian Network, given a dataset of observations.
Based on recent advances extending this framework to non-discrete sample
spaces, we propose in this paper to approximate the joint posterior over not
only the structure of a Bayesian Network, but also the parameters of its
conditional probability distributions. We use a single GFlowNet whose sampling
policy follows a two-phase process: the DAG is first generated sequentially one
edge at a time, and then the corresponding parameters are picked once the full
structure is known. Since the parameters are included in the posterior
distribution, this leaves more flexibility for the local probability models of
the Bayesian Network, making our approach applicable even to non-linear models
parametrized by neural networks. We show that our method, called JSP-GFN,
offers an accurate approximation of the joint posterior, while comparing
favorably against existing methods on both simulated and real data.
- Abstract(参考訳): 離散的および構造化されたサンプル空間上の生成モデルのクラスである生成フローネットワーク(GFlowNets)は、ベイジアンネットワークの有向非巡回グラフ(DAG)上の境界後部分布を推定する問題に対して、観測のデータセットを与えられた。
本稿では, この枠組みを非離散標本空間に拡張する最近の進歩に基づき, ベイズネットワークの構造だけでなく, 条件付き確率分布のパラメータにも乗じて, 結合後部を近似する手法を提案する。
我々は,サンプリングポリシが2段階のプロセスに従う単一のGFlowNetを用いて,DAGを1回に1つのエッジに順次生成し,全構造が知られると対応するパラメータを選択する。
パラメータは後方分布に含まれるため,ベイジアンネットワークの局所確率モデルに対する柔軟性が向上し,ニューラルネットワークによってパラメータ化される非線形モデルにも適用できる。
本手法は jsp-gfn と呼ばれ, シミュレーションデータと実データの両方において既存の手法と好適に比較しながら, 関節後方の正確な近似を提供する。
関連論文リスト
- Bayesian Flow Networks [4.585102332532472]
本稿では,ベイジアン・フロー・ネットワーク(BFN)について述べる。ベイジアン・フロー・ネットワーク(BFN)は,独立分布の集合のパラメータをベイジアン推論で修正した新しい生成モデルである。
単純な事前および反復的な2つの分布の更新から始めると、拡散モデルの逆過程に似た生成手順が得られる。
BFNは動的にバイナライズされたMNISTとCIFAR-10で画像モデリングを行うために競合するログライクフレーションを実現し、text8文字レベルの言語モデリングタスクにおいて既知のすべての離散拡散モデルより優れている。
論文 参考訳(メタデータ) (2023-08-14T09:56:35Z) - A Bayesian Take on Gaussian Process Networks [1.7188280334580197]
この研究はモンテカルロ法とマルコフ・チェイン・モンテカルロ法を実装し、ネットワーク構造の後方分布からサンプリングする。
提案手法は,ネットワークのグラフィカルな構造を復元する上で,最先端のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-20T08:38:31Z) - Variational EP with Probabilistic Backpropagation for Bayesian Neural
Networks [0.0]
本稿では,ネットワーク重みを階層的に表した2層ニューラルネットワークモデル構造を用いた非線形ロジスティック回帰手法を提案する。
私は計算効率のよいアルゴリズムを導き出し、その複雑さは独立したスパースロジスティックモデルの集合と同様にスケールする。
論文 参考訳(メタデータ) (2023-03-02T19:09:47Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - The Bayesian Method of Tensor Networks [1.7894377200944511]
ネットワークのベイズ的枠組みを2つの観点から検討する。
本研究では,2次元合成データセットにおけるモデルパラメータと決定境界を可視化することにより,ネットワークのベイズ特性について検討する。
論文 参考訳(メタデータ) (2021-01-01T14:59:15Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。