論文の概要: Hard and Soft EM in Bayesian Network Learning from Incomplete Data
- arxiv url: http://arxiv.org/abs/2012.05269v1
- Date: Wed, 9 Dec 2020 19:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 05:35:09.480782
- Title: Hard and Soft EM in Bayesian Network Learning from Incomplete Data
- Title(参考訳): 不完全データを用いたベイズネットワーク学習におけるハードとソフトem
- Authors: Andrea Ruggieri, Francesco Stranieri, Fabio Stella and Marco Scutari
- Abstract要約: 結果のBNの品質に対する信念伝搬の代わりにインプテーションを使用することの影響について検討する。
我々は,データの特徴に基づいて,複数のシナリオにおいて,あるアプローチを推奨できることを見出した。
- 参考スコア(独自算出の注目度): 1.5484595752241122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incomplete data are a common feature in many domains, from clinical trials to
industrial applications. Bayesian networks (BNs) are often used in these
domains because of their graphical and causal interpretations. BN parameter
learning from incomplete data is usually implemented with the
Expectation-Maximisation algorithm (EM), which computes the relevant sufficient
statistics ("soft EM") using belief propagation. Similarly, the Structural
Expectation-Maximisation algorithm (Structural EM) learns the network structure
of the BN from those sufficient statistics using algorithms designed for
complete data. However, practical implementations of parameter and structure
learning often impute missing data ("hard EM") to compute sufficient statistics
instead of using belief propagation, for both ease of implementation and
computational speed. In this paper, we investigate the question: what is the
impact of using imputation instead of belief propagation on the quality of the
resulting BNs? From a simulation study using synthetic data and reference BNs,
we find that it is possible to recommend one approach over the other in several
scenarios based on the characteristics of the data. We then use this
information to build a simple decision tree to guide practitioners in choosing
the EM algorithm best suited to their problem.
- Abstract(参考訳): 不完全データは、臨床試験から産業応用まで、多くの領域で一般的な特徴である。
ベイズネットワーク(BN)は、グラフィカルな解釈と因果的な解釈のため、これらの領域でよく使用される。
不完全データからのBNパラメータ学習は通常、信条伝搬を用いて関連する十分な統計量(ソフトEM)を計算する期待最大化アルゴリズム(EM)で実装される。
同様に、構造期待最大化アルゴリズム (Structural EM) は完全なデータ用に設計されたアルゴリズムを用いてBNのネットワーク構造を学習する。
しかし、パラメータと構造学習の実際的な実装は、実装の容易さと計算速度の両方のため、信念伝播を使う代わりに十分な統計を計算するために不足したデータ("hard em")を暗示することが多い。
本稿では,提案するBNの質に対する信念の伝播ではなく,インパルスの使用による影響について検討する。
合成データと参照bnsを用いたシミュレーション研究から,データの特徴に基づいた複数のシナリオにおいて,一方のアプローチを他方よりも推奨することが可能であることが判明した。
次に,この問題に最も適したemアルゴリズムの選択を実践者に指導するために,この情報を用いて簡単な決定木を構築する。
関連論文リスト
- Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Fast & Efficient Learning of Bayesian Networks from Data: Knowledge
Discovery and Causality [0.0]
FSBNとSSBNという2つの新しいアルゴリズムは、データから因果ネットワーク構造を学ぶために局所探索戦略と条件独立テストを採用している。
FSBNは最大で52%のコスト削減を実現し、SSBNは200ノードネットワークで72%のコスト削減を実現している。
論文 参考訳(メタデータ) (2023-10-13T16:20:20Z) - Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - BigBraveBN: algorithm of structural learning for bayesian networks with
a large number of nodes [0.0]
本稿では,多数のノード(100以上)を持つ大規模ベイズネットワークを学習するためのBigBraveBNアルゴリズムを提案する。
このアルゴリズムは、複数のグループのインスタンスの相互発生を測定するブレーブ係数を利用する。
記事では、BigBraveBNの性能を、離散的かつ連続的な複数のデータセット上の既存のソリューションと比較する。
論文 参考訳(メタデータ) (2022-08-22T13:43:57Z) - A Differentiable Approach to Combinatorial Optimization using Dataless
Neural Networks [20.170140039052455]
我々は、ソリューションを生成するニューラルネットワークのトレーニングにデータを必要としないという、根本的に異なるアプローチを提案する。
特に、最適化問題をニューラルネットワークに還元し、データレストレーニングスキームを用いて、それらのパラメータが関心の構造をもたらすように、ネットワークのパラメータを洗練する。
論文 参考訳(メタデータ) (2022-03-15T19:21:31Z) - A Sparse Structure Learning Algorithm for Bayesian Network
Identification from Discrete High-Dimensional Data [0.40611352512781856]
本稿では,高次元離散データから疎構造ベイズネットワークを学習する問題に対処する。
本稿では,空間特性とDAG特性を同時に満足するスコア関数を提案する。
具体的には,アルゴリズムを高次元データで効率的に動作させるため,最適化アルゴリズムに分散低減法を用いる。
論文 参考訳(メタデータ) (2021-08-21T12:21:01Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Large-scale empirical validation of Bayesian Network structure learning
algorithms with noisy data [9.04391541965756]
本稿では、15個の構造学習アルゴリズムの性能について検討する。
各アルゴリズムは、複数のケーススタディ、サンプルサイズ、ノイズの種類、および複数の評価基準で評価される。
その結果、従来の合成性能は、実世界のパフォーマンスを10%以上50%以上で過大評価する可能性があることが示唆された。
論文 参考訳(メタデータ) (2020-05-18T18:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。