論文の概要: Federated Learning with Partial Model Personalization
- arxiv url: http://arxiv.org/abs/2204.03809v1
- Date: Fri, 8 Apr 2022 01:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 14:04:55.297041
- Title: Federated Learning with Partial Model Personalization
- Title(参考訳): 部分モデルパーソナライズによる連合学習
- Authors: Krishna Pillutla, Kshitiz Malik, Abdelrahman Mohamed, Michael Rabbat,
Maziar Sanjabi, Lin Xiao
- Abstract要約: デバイス上で共有パラメータと個人パラメータを同時にあるいは交互に更新する部分パーソナライズされた学習アルゴリズムを2つ検討する。
どちらのアルゴリズムも連合学習モデルで提案されているが、それらの性質は完全には理解されていない。
- 参考スコア(独自算出の注目度): 18.965010150483206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider two federated learning algorithms for training partially
personalized models, where the shared and personal parameters are updated
either simultaneously or alternately on the devices. Both algorithms have been
proposed in the literature, but their convergence properties are not fully
understood, especially for the alternating variant. We provide convergence
analyses of both algorithms in the general nonconvex setting with partial
participation and delineate the regime where one dominates the other. Our
experiments on real-world image, text, and speech datasets demonstrate that (a)
partial personalization can obtain most of the benefits of full model
personalization with a small fraction of personal parameters, and, (b) the
alternating update algorithm often outperforms the simultaneous update
algorithm.
- Abstract(参考訳): 共有パラメータと個人パラメータがデバイス上で同時または交互に更新される部分的パーソナライズされたモデルをトレーニングするための2つのフェデレーション学習アルゴリズムについて検討する。
どちらのアルゴリズムも文献で提案されているが、それらの収束特性は、特に交互変量に対して完全には理解されていない。
部分的参加を伴う一般の非凸設定における両アルゴリズムの収束解析を行い、一方が他方を支配している体制を規定する。
実世界の画像、テキスト、音声データセットに関する我々の実験は、それを実証している。
(a)部分的パーソナライゼーションは、個人的パラメータのごく一部でフルモデルパーソナライゼーションの利点のほとんどを得ることができ、
b) 交互更新アルゴリズムは、しばしば同時更新アルゴリズムよりも優れている。
関連論文リスト
- Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Adaptive Optimization Algorithms for Machine Learning [0.0]
機械学習は、データ駆動の世界において重要な役割を担います。
この論文は、新しい洞察をもたらし、収束保証を改善した新しいアルゴリズムを導入し、人気のある実用的なアルゴリズムの分析を改善する。
論文 参考訳(メタデータ) (2023-11-16T21:22:47Z) - Distributed Personalized Empirical Risk Minimization [19.087524494290676]
本稿では、異種データからの学習を容易にするために、新たなパラダイムであるPersonalized Empirical Risk Minimization(PERM)を提案する。
本稿では,標準モデル平均化をモデルシャッフルに置き換えた分散アルゴリズムを提案し,すべてのデバイスに対してPERM目標を同時に最適化する。
論文 参考訳(メタデータ) (2023-10-26T20:07:33Z) - Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training [67.67045085186797]
既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
論文 参考訳(メタデータ) (2023-05-24T13:52:18Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - A Generative Framework for Personalized Learning and Estimation: Theory,
Algorithms, and Privacy [10.27527187262914]
我々は、いくつかの異なるアルゴリズムを統一し、新しいアルゴリズムを提案することができる生成フレームワークを開発した。
次に、生成フレームワークを学習に使用し、既知のパーソナライズされたFLアルゴリズムを統一し、新しいFLアルゴリズムを提案する。
また、ユーザレベルのプライバシーと構成を保証するパーソナライズされた学習手法のプライバシも開発している。
論文 参考訳(メタデータ) (2022-07-05T02:18:44Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Contextual Model Aggregation for Fast and Robust Federated Learning in
Edge Computing [88.76112371510999]
フェデレーション学習は、ネットワークエッジにおける分散機械学習の第一候補である。
既存のアルゴリズムは、性能の緩やかな収束や堅牢性の問題に直面している。
そこで本稿では,損失低減に対する最適コンテキスト依存境界を実現するためのコンテキストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T21:42:31Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Adaptive Personalized Federated Learning [20.80073507382737]
フェデレーション学習アルゴリズムにおけるパーソナライゼーションの度合いの調査では、グローバルモデルの性能を最大化するだけで、ローカルモデルのパーソナライズ能力をトレーニングできることが示されている。
論文 参考訳(メタデータ) (2020-03-30T13:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。