論文の概要: A Note on Bayesian Networks with Latent Root Variables
- arxiv url: http://arxiv.org/abs/2402.17087v1
- Date: Mon, 26 Feb 2024 23:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:23:18.126588
- Title: A Note on Bayesian Networks with Latent Root Variables
- Title(参考訳): 潜伏ルート変数を持つベイズネットワークに関する一考察
- Authors: Marco Zaffalon and Alessandro Antonucci
- Abstract要約: 残りの, 証明, 変数に対する限界分布もまたベイズ的ネットワークとして分解され, 経験的と呼ぶ。
マニフェスト変数の観測のデータセットにより、経験的ベイズネットのパラメータを定量化することができる。
- 参考スコア(独自算出の注目度): 56.86503578982023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We characterise the likelihood function computed from a Bayesian network with
latent variables as root nodes. We show that the marginal distribution over the
remaining, manifest, variables also factorises as a Bayesian network, which we
call empirical. A dataset of observations of the manifest variables allows us
to quantify the parameters of the empirical Bayesian net. We prove that (i) the
likelihood of such a dataset from the original Bayesian network is dominated by
the global maximum of the likelihood from the empirical one; and that (ii) such
a maximum is attained if and only if the parameters of the Bayesian network are
consistent with those of the empirical model.
- Abstract(参考訳): 潜在変数をルートノードとしてベイジアンネットワークから計算した帰納関数を特徴付ける。
残りの, 証明, 変数に対する限界分布もまたベイズ的ネットワークとして分解され, 経験的と呼ぶ。
マニフェスト変数の観測のデータセットにより、経験的ベイズネットのパラメータを定量化することができる。
私たちはそれを証明します
(i)元のベイズネットワークからのそのようなデータセットの可能性は、経験的ネットワークからの可能性のグローバルな最大度に支配されている;そして、
(ii)そのような最大値は、ベイズネットワークのパラメータが経験的モデルのパラメータと一致している場合にのみ達成される。
関連論文リスト
- Nonparametric Bayesian networks are typically faithful in the total variation metric [12.27570686178551]
与えられたDAG$G$に対して、任意の結果空間を持つベイズネットワークのすべての観測的分布のうち、忠実な分布は典型的であることを示す。
その結果、忠実な分布の集合は空でなく、不誠実な分布は濃密ではない。
論文 参考訳(メタデータ) (2024-10-21T13:38:04Z) - The diameter of a stochastic matrix: A new measure for sensitivity analysis in Bayesian networks [1.2699007098398807]
我々は、慣れ親しんだ全変動距離に基づくロバストネス法は、不特定性に対するロバストネスに、よりシンプルで価値のある境界をもたらすと論じる。
このような境界を導出するために、直径と呼ばれる条件付き確率表への依存の新たな尺度を導入する。
論文 参考訳(メタデータ) (2024-07-05T17:22:12Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Amortised Inference in Neural Networks for Small-Scale Probabilistic
Meta-Learning [41.85464593920907]
BNNに対する大域的変分近似は、一連の条件分布を構成するために一連のインジェクションインプットを使用する。
我々の重要な洞察は、これらのインプットを実際のデータに置き換えることができ、変動分布は各データポイントに対して近似的な確率の集合からなることである。
この推論ネットワークを関連するデータセット間でトレーニングすることにより、タスク固有のBNNに対するメタ学習ベイズ推論が可能になる。
論文 参考訳(メタデータ) (2023-10-24T12:34:25Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Likelihoods and Parameter Priors for Bayesian Networks [7.005458308454871]
本稿では,多数のベイズネットワーク構造に対する確率とパラメータの事前設定を許容する仮定をいくつか紹介する。
本論文では, 欠如した観察を伴わないランダムなサンプルの限界可能性を直接計算する手法を提案する。
論文 参考訳(メタデータ) (2021-05-13T12:45:44Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Uncertainty Reasoning for Probabilistic Petri Nets via Bayesian Networks [1.471992435706872]
我々は、ペトリネット上の不確実性推論のために拡張ベイズネットワークを利用する。
特にベイズネットワークは確率分布の記号表現として用いられる。
モジュラーベイズネットから情報を引き出す方法を示す。
論文 参考訳(メタデータ) (2020-09-30T17:40:54Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。