論文の概要: Towards Federated Bayesian Network Structure Learning with Continuous
Optimization
- arxiv url: http://arxiv.org/abs/2110.09356v1
- Date: Mon, 18 Oct 2021 14:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 14:34:26.536229
- Title: Towards Federated Bayesian Network Structure Learning with Continuous
Optimization
- Title(参考訳): 連続最適化によるベイズネットワーク構造学習に向けて
- Authors: Ignavier Ng, Kun Zhang
- Abstract要約: 本稿では,ベイズネットワークの構造を推定するクロスサイロ・フェデレーション学習手法を提案する。
本研究では,連続最適化に基づく分散構造学習手法を提案する。
- 参考スコア(独自算出の注目度): 14.779035801521717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, Bayesian network structure learning is often carried out at a
central site, in which all data is gathered. However, in practice, data may be
distributed across different parties (e.g., companies, devices) who intend to
collectively learn a Bayesian network, but are not willing to disclose
information related to their data owing to privacy or security concerns. In
this work, we present a cross-silo federated learning approach to estimate the
structure of Bayesian network from data that is horizontally partitioned across
different parties. We develop a distributed structure learning method based on
continuous optimization, using the alternating direction method of multipliers
(ADMM), such that only the model parameters have to be exchanged during the
optimization process. We demonstrate the flexibility of our approach by
adopting it for both linear and nonlinear cases. Experimental results on
synthetic and real datasets show that it achieves an improved performance over
the other methods, especially when there is a relatively large number of
clients and each has a limited sample size.
- Abstract(参考訳): 伝統的に、ベイズネットワーク構造学習は、すべてのデータが収集される中央のサイトで行われることが多い。
しかし実際には、データはベイズネットワークを集合的に学習しようとする異なるパーティ(企業、デバイスなど)に分散されるが、プライバシやセキュリティ上の懸念からデータに関連する情報を開示する意思はない。
本研究では,異なるパーティ間で水平に分割されたデータからベイズネットワークの構造を推定するクロスサイロフェデレーション学習手法を提案する。
最適化過程においてモデルパラメータのみを交換できるように,乗算器(admm)の交互方向法を用いて,連続最適化に基づく分散構造学習手法を開発した。
線形ケースと非線形ケースの両方に適用することで,このアプローチの柔軟性を実証する。
合成データと実データを用いた実験の結果,クライアント数が比較的多く,サンプルサイズが制限された場合には,他の手法よりも性能が向上することが示されている。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values [2.9707233220536313]
フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:13:35Z) - A Procedural World Generation Framework for Systematic Evaluation of
Continual Learning [2.599882743586164]
都会のシーンのフラグメントのみを描画するコンピュータグラフィックスシミュレーションフレームワークを提案する。
中心となるのは、適応可能な生成因子を持つモジュラーパラメトリック生成モデルである。
論文 参考訳(メタデータ) (2021-06-04T16:31:43Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。