論文の概要: Personalized Federated Learning via Convex Clustering
- arxiv url: http://arxiv.org/abs/2202.00718v1
- Date: Tue, 1 Feb 2022 19:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:56:41.104034
- Title: Personalized Federated Learning via Convex Clustering
- Title(参考訳): 凸クラスタリングによる個人化フェデレーション学習
- Authors: Aleksandar Armacki, Dragana Bajovic, Dusan Jakovetic, Soummya Kar
- Abstract要約: 本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
- 参考スコア(独自算出の注目度): 72.15857783681658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a parametric family of algorithms for personalized federated
learning with locally convex user costs. The proposed framework is based on a
generalization of convex clustering in which the differences between different
users' models are penalized via a sum-of-norms penalty, weighted by a penalty
parameter $\lambda$. The proposed approach enables "automatic" model
clustering, without prior knowledge of the hidden cluster structure, nor the
number of clusters. Analytical bounds on the weight parameter, that lead to
simultaneous personalization, generalization and automatic model clustering are
provided. The solution to the formulated problem enables personalization, by
providing different models across different clusters, and generalization, by
providing models different than the per-user models computed in isolation. We
then provide an efficient algorithm based on the Parallel Direction Method of
Multipliers (PDMM) to solve the proposed formulation in a federated
server-users setting. Numerical experiments corroborate our findings. As an
interesting byproduct, our results provide several generalizations to convex
clustering.
- Abstract(参考訳): 本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのパラメトリックなアルゴリズム群を提案する。
提案するフレームワークは凸クラスタリングの一般化に基づいており,各ユーザのモデルの違いは,ペナルティパラメータ$\lambda$で重み付けされたノームの和によってペナルティ化される。
提案手法は,隠れクラスタ構造やクラスタ数の事前知識を必要とせずに,"自動"モデルクラスタリングを可能にする。
同時パーソナライズ、一般化、自動モデルクラスタリングにつながる重みパラメータに関する分析的な境界が提供される。
この形式化された問題に対する解決策は、異なるクラスタにまたがる異なるモデルを提供することでパーソナライズを可能にし、個別に計算されたユーザー毎のモデルとは異なるモデルを提供することで一般化を可能にする。
次に,並列方向乗算器法(pdmm)に基づく効率的なアルゴリズムを提案し,提案手法をフェデレーションサーバユーザ設定で解く。
数値実験は我々の発見を裏付ける。
興味深い副産物として、この結果は凸クラスタリングへのいくつかの一般化を提供する。
関連論文リスト
- Mixture of multilayer stochastic block models for multiview clustering [0.0]
本稿では,異なる情報源から得られた複数のクラスタリングを集約する独自の手法を提案する。
モデルパラメータの同定可能性を確立し,これらのパラメータを推定するために変分ベイズEMアルゴリズムを提案する。
この手法は、グローバルな食品取引網の分析に利用され、興味のある構造に繋がる。
論文 参考訳(メタデータ) (2024-01-09T17:15:47Z) - Lp-Norm Constrained One-Class Classifier Combination [18.27510863075184]
アンサンブルの空間/均一性をモデル化し,一級分類問題を考える。
定式化凸制約問題の解法を効果的に提案する。
論文 参考訳(メタデータ) (2023-12-25T16:32:34Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - A parallelizable model-based approach for marginal and multivariate
clustering [0.0]
本稿では,モデルに基づくクラスタリングの頑健さを生かしたクラスタリング手法を提案する。
我々は、各マージンごとに異なる数のクラスタを持つことができる有限混合モデルを指定することで、この問題に対処する。
提案手法は、完全な(結合した)モデルベースのクラスタリング手法よりも、中程度から高次元の処理に適するだけでなく、計算的にも魅力的である。
論文 参考訳(メタデータ) (2022-12-07T23:54:41Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - clusterBMA: Bayesian model averaging for clustering [1.2021605201770345]
本稿では、教師なしクラスタリングアルゴリズムの結果の重み付きモデル平均化を可能にするクラスタBMAを提案する。
クラスタリング内部検証基準を用いて、各モデルの結果の重み付けに使用される後続モデル確率の近似を開発する。
シミュレーションデータ上での他のアンサンブルクラスタリングメソッドのパフォーマンスに加えて、クラスタBMAは平均クラスタへの確率的アロケーションを含むユニークな機能を提供する。
論文 参考訳(メタデータ) (2022-09-09T04:55:20Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Local versions of sum-of-norms clustering [77.34726150561087]
本手法はボールモデルにおいて任意に閉じた球を分離できることを示す。
我々は、不連結連結集合のクラスタリングで発生する誤差に定量的な有界性を証明した。
論文 参考訳(メタデータ) (2021-09-20T14:45:29Z) - Blocked Clusterwise Regression [0.0]
我々は、各ユニットが複数の潜伏変数を持つことを可能にすることで、離散的非観測的不均一性に対する以前のアプローチを一般化する。
我々は,クラスタの過剰な数のクラスタリングの理論に寄与し,この設定に対する新たな収束率を導出する。
論文 参考訳(メタデータ) (2020-01-29T23:29:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。