論文の概要: VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values
- arxiv url: http://arxiv.org/abs/2210.17228v2
- Date: Tue, 21 May 2024 14:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 19:40:07.658798
- Title: VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values
- Title(参考訳): VertiBayes: 垂直分割データからのベイズ的ネットワークパラメータの学習
- Authors: Florian van Daalen, Lianne Ippel, Andre Dekker, Inigo Bermejo,
- Abstract要約: フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
- 参考スコア(独自算出の注目度): 2.9707233220536313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning makes it possible to train a machine learning model on decentralized data. Bayesian networks are probabilistic graphical models that have been widely used in artificial intelligence applications. Their popularity stems from the fact they can be built by combining existing expert knowledge with data and are highly interpretable, which makes them useful for decision support, e.g. in healthcare. While some research has been published on the federated learning of Bayesian networks, publications on Bayesian networks in a vertically partitioned or heterogeneous data setting (where different variables are located in different datasets) are limited, and suffer from important omissions, such as the handling of missing data. In this article, we propose a novel method called VertiBayes to train Bayesian networks (structure and parameters) on vertically partitioned data, which can handle missing values as well as an arbitrary number of parties. For structure learning we adapted the widely used K2 algorithm with a privacy-preserving scalar product protocol. For parameter learning, we use a two-step approach: first, we learn an intermediate model using maximum likelihood by treating missing values as a special value and then we train a model on synthetic data generated by the intermediate model using the EM algorithm. The privacy guarantees of our approach are equivalent to the ones provided by the privacy preserving scalar product protocol used. We experimentally show our approach produces models comparable to those learnt using traditional algorithms and we estimate the increase in complexity in terms of samples, network size, and complexity. Finally, we propose two alternative approaches to estimate the performance of the model using vertically partitioned data and we show in experiments that they lead to reasonably accurate estimates.
- Abstract(参考訳): フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
ベイズネットワーク(英: Bayesian network)は、人工知能アプリケーションで広く使われている確率的グラフィカルモデルである。
彼らの人気は、既存の専門家の知識とデータを組み合わせることで構築できるという事実に起因している。
ベイジアンネットワークの連合学習に関するいくつかの研究が出版されているが、ベイジアンネットワーク上の(異なる変数が異なるデータセットにある)垂直に分割された、あるいは不均一なデータ設定での出版は限られており、欠落したデータの処理のような重要な欠落に悩まされている。
本稿では,垂直分割データ上のベイズネットワーク(構造とパラメータ)を学習するVertiBayesという新しい手法を提案する。
構造学習のために、我々はプライバシー保護スカラー製品プロトコルを用いて広く使われているK2アルゴリズムを適用した。
パラメータ学習には2段階のアプローチを用いる: まず、欠落した値を特別な値として扱い、最大極大を用いて中間モデルを学習し、次にEMアルゴリズムを用いて中間モデルが生成した合成データに基づいてモデルを訓練する。
このアプローチのプライバシ保証は、使用するプライバシ保護スカラー製品プロトコルが提供するものと同等です。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成することを実験的に示し,サンプル,ネットワークサイズ,複雑性の観点から複雑性の増加を推定する。
最後に,垂直分割データを用いてモデルの性能を推定する2つの方法を提案する。
関連論文リスト
- HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Towards Federated Bayesian Network Structure Learning with Continuous
Optimization [14.779035801521717]
本稿では,ベイズネットワークの構造を推定するクロスサイロ・フェデレーション学習手法を提案する。
本研究では,連続最適化に基づく分散構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:36:05Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Privacy-Preserving Object Detection & Localization Using Distributed
Machine Learning: A Case Study of Infant Eyeblink Conditioning [1.3022864665437273]
オブジェクト検出によく使用される2つのアルゴリズムのスケーラブルな分散学習バージョンについて検討する。
医療分野における両アルゴリズムの適用について,心理学・神経科学のパラダイムを用いて検討した。
論文 参考訳(メタデータ) (2020-10-14T17:33:28Z) - It's the Best Only When It Fits You Most: Finding Related Models for
Serving Based on Dynamic Locality Sensitive Hashing [1.581913948762905]
トレーニングデータの作成は、生産や研究のためにディープラーニングモデルをデプロイするライフサイクルにおいて、しばしばボトルネックとなる。
本稿では,対象のデータセットと利用可能なモデルのトレーニングデータセットの類似性に基づいて,関連するモデルを検索してサービスするエンド・ツー・エンドプロセスを提案する。
論文 参考訳(メタデータ) (2020-10-13T22:52:13Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - GRAFFL: Gradient-free Federated Learning of a Bayesian Generative Model [8.87104231451079]
本稿では、GRAFFLと呼ばれる、最初の勾配のない連邦学習フレームワークを提案する。
参加する各機関から得られた暗黙の情報を用いて、パラメータの後方分布を学習する。
本稿では,GRAFFLに基づくベイズ混合モデルを提案する。
論文 参考訳(メタデータ) (2020-08-29T07:19:44Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - A Tutorial on Learning With Bayesian Networks [8.98526174345299]
ベイズネットワークは、興味のある変数間の確率的関係を符号化するグラフィカルモデルである。
ベイズネットワークは因果関係の学習に利用できる。
また、問題領域の理解を得、介入の結果を予測するためにも使用できる。
論文 参考訳(メタデータ) (2020-02-01T20:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。