論文の概要: Federated Matrix Factorization: Algorithm Design and Application to Data
Clustering
- arxiv url: http://arxiv.org/abs/2002.04930v2
- Date: Fri, 30 Oct 2020 09:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:49:02.623622
- Title: Federated Matrix Factorization: Algorithm Design and Application to Data
Clustering
- Title(参考訳): Federated Matrix Factorization:アルゴリズムの設計とデータクラスタリングへの応用
- Authors: Shuai Wang and Tsung-Hui Chang
- Abstract要約: データプライバシに関する近年の要求は、大規模で異種ネットワークにおける新たな分散学習パラダイムとして、フェデレートラーニング(FL)を提唱している。
我々は,モデル平均化と勾配共有原理に基づく2つの新しいFedMFアルゴリズム,すなわちFedMAvgとFedMGSを提案する。
- 参考スコア(独自算出の注目度): 18.917444528804463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent demands on data privacy have called for federated learning (FL) as a
new distributed learning paradigm in massive and heterogeneous networks.
Although many FL algorithms have been proposed, few of them have considered the
matrix factorization (MF) model, which is known to have a vast number of signal
processing and machine learning applications. Different from the existing FL
algorithms that are designed for smooth problems with single block of
variables, in federated MF (FedMF), one has to deal with challenging non-convex
and non-smooth problems (due to constraints or regularization) with two blocks
of variables. In this paper, we address the challenge by proposing two new
FedMF algorithms, namely, FedMAvg and FedMGS, based on the model averaging and
gradient sharing principles, respectively. Both FedMAvg and FedMGS adopt
multiple steps of local updates per communication round to speed up
convergence, and allow only a randomly sampled subset of clients to communicate
with the server for reducing the communication cost. Convergence analyses for
the two algorithms are respectively presented, which delineate the impacts of
data distribution, local update number, and partial client communication on the
algorithm performance. By focusing on a data clustering task, extensive
experiment results are presented to examine the practical performance of both
algorithms, as well as demonstrating their efficacy over the existing
distributed clustering algorithms.
- Abstract(参考訳): データプライバシに関する近年の要求は、大規模で異種ネットワークにおける新たな分散学習パラダイムとして、フェデレーション学習(FL)を求めている。
多くのflアルゴリズムが提案されているが、行列分解 (mf) モデルを考える者はほとんどおらず、多くの信号処理や機械学習の応用が知られている。
単一変数ブロックの滑らかな問題のために設計された既存のflアルゴリズムとは異なり、フェデレーションmf(fedmf)では、2つの変数ブロックによる非凸および非スムース問題(制約または正規化による)に対処する必要がある。
本稿では,モデル平均化と勾配共有の原理に基づいて,FedMAvgとFedMGSという2つの新しいFedMFアルゴリズムを提案する。
fedmavg と fedmgs は、コンバージェンスを高速化するために、通信ラウンドごとに複数のローカル更新のステップを採用しており、ランダムにサンプリングされたクライアントのサブセットのみが、通信コストを削減するためにサーバと通信できるようにしている。
2つのアルゴリズムの収束解析を行い,データ分布,局所更新数,部分的クライアント通信がアルゴリズム性能に与える影響を明らかにした。
データクラスタリングタスクに注目することで,両アルゴリズムの実用性を検討するとともに,既存の分散クラスタリングアルゴリズムの有効性を示すために,広範な実験結果が得られた。
関連論文リスト
- Convergence Visualizer of Decentralized Federated Distillation with
Reduced Communication Costs [3.2098126952615442]
フェデレートラーニング(FL)は、データ共有を必要とせずに協調学習を実現し、プライバシーの漏洩を防ぐ。
本研究では,CMFD の未解決課題として,(1) 通信コストの削減と(2) モデル収束の可視化の2つを解決した。
論文 参考訳(メタデータ) (2023-12-19T07:23:49Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - FedADMM: A Robust Federated Deep Learning Framework with Adaptivity to
System Heterogeneity [4.2059108111562935]
Federated Learning(FL)は、エッジデバイスによる大規模データの分散処理のための新興フレームワークである。
本稿では,FLAD FedADMMに基づく新しいプロトコルを提案する。
我々は,FedADMMが通信効率の点で,すべてのベースライン手法を一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-07T15:58:33Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Resource-constrained Federated Edge Learning with Heterogeneous Data:
Formulation and Analysis [8.863089484787835]
ヘテロジニアスデータによる不均一な統計的課題を解決するために, 分散されたニュートン型ニュートン型トレーニングスキームであるFedOVAを提案する。
FedOVAはマルチクラス分類問題をより単純なバイナリ分類問題に分解し、アンサンブル学習を用いてそれぞれの出力を結合する。
論文 参考訳(メタデータ) (2021-10-14T17:35:24Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。