論文の概要: Federated Bayesian Network Ensembles
- arxiv url: http://arxiv.org/abs/2402.12142v1
- Date: Mon, 19 Feb 2024 13:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:24:36.025422
- Title: Federated Bayesian Network Ensembles
- Title(参考訳): ベイジアンネットワークの連合
- Authors: Florian van Daalen, Lianne Ippel, Andre Dekker, Inigo Bermejo
- Abstract要約: フェデレートされた学習により、プライバシの懸念によりデータ共有が許可されていない場合、分散化されたデータ上で機械学習アルゴリズムを実行することができます。
FBNEは、フェデレートされた学習ツールボックスの中で潜在的に有用なツールであることを示す。
本稿では,時間的複雑性,モデル精度,プライバシ保護,モデル解釈可能性の観点から,このアプローチのメリットとデメリットについて論じる。
- 参考スコア(独自算出の注目度): 3.24530181403525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning allows us to run machine learning algorithms on
decentralized data when data sharing is not permitted due to privacy concerns.
Ensemble-based learning works by training multiple (weak) classifiers whose
output is aggregated. Federated ensembles are ensembles applied to a federated
setting, where each classifier in the ensemble is trained on one data location.
In this article, we explore the use of federated ensembles of Bayesian
networks (FBNE) in a range of experiments and compare their performance with
locally trained models and models trained with VertiBayes, a federated learning
algorithm to train Bayesian networks from decentralized data. Our results show
that FBNE outperforms local models and provides a significant increase in
training speed compared with VertiBayes while maintaining a similar performance
in most settings, among other advantages. We show that FBNE is a potentially
useful tool within the federated learning toolbox, especially when local
populations are heavily biased, or there is a strong imbalance in population
size across parties. We discuss the advantages and disadvantages of this
approach in terms of time complexity, model accuracy, privacy protection, and
model interpretability.
- Abstract(参考訳): フェデレーション学習により、プライバシの懸念によりデータ共有が許可されていない場合、分散データ上で機械学習アルゴリズムを実行することができます。
アンサンブルベースの学習は、出力が集約された複数の(弱)分類器を訓練する。
フェデレーションアンサンブル(federated ensemble)は、フェデレーション設定に適用されるアンサンブルであり、アンサンブル内の各分類器は、1つのデータロケーションで訓練される。
本稿では,ベイズネットワークのフェデレーションアンサンブル(FBNE)を様々な実験で使用し,その性能を,分散データからベイズネットワークを訓練するためのフェデレーション学習アルゴリズムであるVertiBayesで訓練されたローカルトレーニングモデルとモデルと比較する。
その結果、FBNEはローカルモデルよりも優れており、VertiBayesと比較してトレーニング速度が大幅に向上し、多くの設定で同様の性能を維持している。
FBNEは,特に地域住民に偏りが強い場合や,政党間の集団規模に強い不均衡がある場合において,フェデレーション学習ツールボックス内で潜在的に有用なツールであることを示す。
本稿では,時間的複雑性,モデル精度,プライバシ保護,モデル解釈可能性の観点から,このアプローチのメリットとデメリットについて論じる。
関連論文リスト
- FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Comparative assessment of federated and centralized machine learning [0.0]
Federated Learning(FL)は、デバイス間でフェデレーションされたデータによってトレーニングが行われる、プライバシ保護機械学習スキームである。
本稿では,非IID分散データの性質から,フェデレーション学習に影響を及ぼす諸要因について論じる。
トレーニング対象のモデルサイズが合理的に大きくない場合には,フェデレーション学習がコスト面で有利であることを示す。
論文 参考訳(メタデータ) (2022-02-03T11:20:47Z) - Federated Learning from Small Datasets [48.879172201462445]
フェデレーション学習は、複数のパーティが、ローカルデータを共有せずに、共同モデルを共同でトレーニングすることを可能にする。
そこで本研究では,局所モデルの置換とモデルアグリゲーションを連動させる新しい手法を提案する。
置換は、各ローカルモデルをローカルデータセットのデージーチェーンに公開することで、データスパースドメインでのより効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2021-10-07T13:49:23Z) - Decentralized federated learning of deep neural networks on non-iid data [0.6335848702857039]
分散環境でパーソナライズされたディープラーニングモデルを学ぶことの難しさに対処する。
本稿では,PENS(Performance-Based Neighbor Selection)という手法を提案する。
PENSは強力なベースラインに比べて高い精度を達成することができる。
論文 参考訳(メタデータ) (2021-07-18T19:05:44Z) - FedBN: Federated Learning on Non-IID Features via Local Batch
Normalization [23.519212374186232]
フェデレーション学習(fl)の新たなパラダイムは、生データを集中的に集約することなく、ネットワークエッジにおける深層モデルの協調的なトレーニングを可能にすることを目指している。
モデルの平均化に先立って,局所的バッチ正規化を用いて特徴シフトを緩和する有効な手法を提案する。
FedBNと呼ばれるこの方式は、古典的なFedAvgと、非IDデータの最先端の両方を上回っている。
論文 参考訳(メタデータ) (2021-02-15T16:04:10Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。