論文の概要: Partitioned Variational Inference: A framework for probabilistic
federated learning
- arxiv url: http://arxiv.org/abs/2202.12275v1
- Date: Thu, 24 Feb 2022 18:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 16:30:46.047379
- Title: Partitioned Variational Inference: A framework for probabilistic
federated learning
- Title(参考訳): 分割変分推論:確率的フェデレーション学習のためのフレームワーク
- Authors: Matthew Ashman, Thang D. Bui, Cuong V. Nguyen, Efstratios Markou,
Adrian Weller, Siddharth Swaroop and Richard E. Turner
- Abstract要約: フェデレートされた環境でVIを実行するためのフレームワークであるパーティショニング付き変分推論(PVI)を導入する。
我々はPVIの新たな支援理論を開発し、実践者にとって魅力的な選択となる多くの特性を実証する。
- 参考スコア(独自算出の注目度): 45.9225420256808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of computing devices has brought about an opportunity to
deploy machine learning models on new problem domains using previously
inaccessible data. Traditional algorithms for training such models often
require data to be stored on a single machine with compute performed by a
single node, making them unsuitable for decentralised training on multiple
devices. This deficiency has motivated the development of federated learning
algorithms, which allow multiple data owners to train collaboratively and use a
shared model whilst keeping local data private. However, many of these
algorithms focus on obtaining point estimates of model parameters, rather than
probabilistic estimates capable of capturing model uncertainty, which is
essential in many applications. Variational inference (VI) has become the
method of choice for fitting many modern probabilistic models. In this paper we
introduce partitioned variational inference (PVI), a general framework for
performing VI in the federated setting. We develop new supporting theory for
PVI, demonstrating a number of properties that make it an attractive choice for
practitioners; use PVI to unify a wealth of fragmented, yet related literature;
and provide empirical results that showcase the effectiveness of PVI in a
variety of federated settings.
- Abstract(参考訳): コンピューティングデバイスの普及は、これまでアクセスできないデータを使用して、新しい問題領域に機械学習モデルをデプロイする機会をもたらした。
このようなモデルをトレーニングする従来のアルゴリズムでは、単一のノードで計算を行う単一のマシンにデータを保存する必要があり、複数のデバイスで分散化されたトレーニングには適さない。
この欠陥は、複数のデータ所有者が協力してトレーニングし、ローカルデータをプライベートにしながら共有モデルを使用することのできる、フェデレーション付き学習アルゴリズムの開発を動機付けている。
しかし、これらのアルゴリズムの多くは、モデルの不確かさを捉えることができる確率的推定よりも、モデルパラメータの点推定の獲得に重点を置いている。
変分推論 (VI) は多くの現代の確率モデルに適合させる方法として選択されている。
本稿では,フェデレーション環境でviを実行する汎用フレームワークであるpartitioned variational inference (pvi)を提案する。
我々は, PVI の新たなサポート理論を開発し, 実践者にとって魅力的な選択となる多くの特性を示し, PVI を用いて断片化された, 関連のある文献を統一し, 様々なフェデレーション環境での PVI の有効性を示す実験結果を提供する。
関連論文リスト
- Scalable Vertical Federated Learning via Data Augmentation and Amortized Inference [1.912429179274357]
本稿では,ベイズモデルを垂直的フェデレート学習環境に組み込むための,初めての包括的枠組みを紹介する。
本稿では,共同確率がクライアント固有確率の積に分解される,特定のVFLシナリオに対する革新的モデル定式化を提案する。
我々の研究は、垂直に分割されたデータシナリオにおけるプライバシー保護、分散ベイズ推論の道を開いた。
論文 参考訳(メタデータ) (2024-05-07T06:29:06Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Improving Heterogeneous Model Reuse by Density Estimation [105.97036205113258]
本稿では,異なる参加者の個人データを用いてモデルを学習することを目的とした多人数学習について検討する。
モデルの再利用は、各パーティーのためにローカルモデルがトレーニングされていると仮定して、マルチパーティの学習にとって有望なソリューションである。
論文 参考訳(メタデータ) (2023-05-23T09:46:54Z) - Federated Variational Inference Methods for Structured Latent Variable
Models [1.0312968200748118]
フェデレートされた学習方法は、データが元の場所を離れることなく、分散データソースをまたいだモデルトレーニングを可能にする。
本稿では,ベイズ機械学習において広く用いられている構造的変分推論に基づく汎用的でエレガントな解を提案する。
また、標準FedAvgアルゴリズムに類似した通信効率のよい変種も提供する。
論文 参考訳(メタデータ) (2023-02-07T08:35:04Z) - Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration [5.994347858883343]
並列的なトレンドは、データにアクセスせずに、他のデータホルダーと協調して機械学習モデルをトレーニングすることです。
本稿では,モデルに依存しない付加的特徴帰属アルゴリズムに基づく説明可能なデータ協調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:53:41Z) - VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values [2.9707233220536313]
フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:13:35Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。