論文の概要: Learning Discretized Bayesian Networks with GOMEA
- arxiv url: http://arxiv.org/abs/2402.12175v1
- Date: Mon, 19 Feb 2024 14:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:28:07.823835
- Title: Learning Discretized Bayesian Networks with GOMEA
- Title(参考訳): gomeaを用いた学習離散ベイズネットワーク
- Authors: Damy M.F. Ha, Tanja Alderliesten, Peter A.N. Bosman
- Abstract要約: 我々は、可変離散化を共同学習するために、既存の最先端構造学習アプローチを拡張した。
これにより、専門家の知識をユニークな洞察に富んだ方法で組み込むことができ、複雑性、正確性、および事前に決定された専門家ネットワークとの差異をトレードオフする複数のDBNを見つけることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian networks model relationships between random variables under
uncertainty and can be used to predict the likelihood of events and outcomes
while incorporating observed evidence. From an eXplainable AI (XAI)
perspective, such models are interesting as they tend to be compact. Moreover,
captured relations can be directly inspected by domain experts. In practice,
data is often real-valued. Unless assumptions of normality can be made,
discretization is often required. The optimal discretization, however, depends
on the relations modelled between the variables. This complicates learning
Bayesian networks from data. For this reason, most literature focuses on
learning conditional dependencies between sets of variables, called structure
learning. In this work, we extend an existing state-of-the-art structure
learning approach based on the Gene-pool Optimal Mixing Evolutionary Algorithm
(GOMEA) to jointly learn variable discretizations. The proposed Discretized
Bayesian Network GOMEA (DBN-GOMEA) obtains similar or better results than the
current state-of-the-art when tasked to retrieve randomly generated
ground-truth networks. Moreover, leveraging a key strength of evolutionary
algorithms, we can straightforwardly perform DBN learning multi-objectively. We
show how this enables incorporating expert knowledge in a uniquely insightful
fashion, finding multiple DBNs that trade-off complexity, accuracy, and the
difference with a pre-determined expert network.
- Abstract(参考訳): ベイズネットワークは不確実性の下で確率変数間の関係をモデル化し、観測された証拠を取り入れながら事象や結果の可能性を予測できる。
eXplainable AI(XAI)の観点から見ると、そのようなモデルはコンパクトである傾向があるため興味深い。
さらに、捕獲された関係はドメインの専門家によって直接検査される。
実際には、データは実際に評価されることが多い。
正規性の仮定が得られない限り、離散化がしばしば必要となる。
しかし、最適の離散化は、変数間のモデル化された関係に依存する。
これはベイズネットワークの学習をデータから複雑にする。
そのため、ほとんどの文献は、構造学習と呼ばれる変数の集合間の条件依存の学習に焦点を当てている。
本稿では,遺伝子プール最適混合進化アルゴリズム(gomea)に基づく既存の構造学習手法を拡張し,可変離散化を共同学習する。
提案した離散ベイズネットワーク GOMEA (DBN-GOMEA) は, ランダムに生成した地層トラスネットワークの検索を行う際に, 現在の最先端技術よりも類似あるいは良好な結果が得られる。
さらに,進化的アルゴリズムの重要な強みを生かして,dbn学習を多目的に行うことができる。
これにより、専門家の知識を独特な方法で取り入れ、複数のdbnを見つけ、複雑さ、正確性、事前決定された専門家ネットワークとの相違を解消することができる。
関連論文リスト
- VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values [2.9707233220536313]
フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:13:35Z) - Detection of Interacting Variables for Generalized Linear Models via
Neural Networks [0.0]
本稿では,一般化線形モデル(GLM)に付加されるべき相互作用を見つけるプロセスを自動化するアプローチを提案する。
提案手法はニューラルネットワークとモデル固有の相互作用検出法に依存しており,Friedman H-StatisticやSHAP値といった従来の手法よりも高速に計算することができる。
数値解析では,人工的に生成したデータとオープンソースデータに対するアプローチの結果について述べる。
論文 参考訳(メタデータ) (2022-09-16T16:16:45Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - FiLM-Ensemble: Probabilistic Deep Learning via Feature-wise Linear
Modulation [69.34011200590817]
本稿では,特徴量線形変調の概念に基づく暗黙のアンサンブル手法であるFiLM-Ensembleを紹介する。
単一ディープネットワークのネットワークアクティベーションをFiLMで変調することにより、高多様性のモデルアンサンブルを得る。
我々は、FiLM-Ensembleが他の暗黙のアンサンブル法よりも優れており、ネットワークの明示的なアンサンブルの上限に非常に近いことを示す。
論文 参考訳(メタデータ) (2022-05-31T18:33:15Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Towards Federated Bayesian Network Structure Learning with Continuous
Optimization [14.779035801521717]
本稿では,ベイズネットワークの構造を推定するクロスサイロ・フェデレーション学習手法を提案する。
本研究では,連続最適化に基づく分散構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:36:05Z) - Prequential MDL for Causal Structure Learning with Neural Networks [9.669269791955012]
ベイジアンネットワークの実用的スコアリング関数を導出するために,事前最小記述長の原理が利用できることを示す。
我々は、調整しなければならない事前やその他の正規化子を誘導するスパーシリティに頼ることなく、可塑性および擬似グラフ構造を得る。
本研究は, 適応速度から因果構造を推定する最近の研究と, 分布変化の源泉から観測結果が得られた場合の因果構造との関係について考察する。
論文 参考訳(メタデータ) (2021-07-02T22:35:21Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Towards Understanding Ensemble, Knowledge Distillation and
Self-Distillation in Deep Learning [93.18238573921629]
本研究では,学習モデルのアンサンブルがテスト精度を向上させる方法と,アンサンブルの優れた性能を単一モデルに蒸留する方法について検討する。
深層学習におけるアンサンブル/知識蒸留は,従来の学習理論とは大きく異なる。
また, 自己蒸留は, アンサンブルと知識蒸留を暗黙的に組み合わせて, 試験精度を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-12-17T18:34:45Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。