論文の概要: Motley: Benchmarking Heterogeneity and Personalization in Federated
Learning
- arxiv url: http://arxiv.org/abs/2206.09262v1
- Date: Sat, 18 Jun 2022 18:18:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 19:10:46.987267
- Title: Motley: Benchmarking Heterogeneity and Personalization in Federated
Learning
- Title(参考訳): motley: フェデレーション学習における不均一性とパーソナライゼーションのベンチマーク
- Authors: Shanshan Wu, Tian Li, Zachary Charles, Yu Xiao, Ziyu Liu, Zheng Xu,
Virginia Smith
- Abstract要約: Motleyは、パーソナライズされたフェデレーション学習のためのベンチマークである。
さまざまな問題領域のクロスデバイスとクロスサイロのフェデレーションデータセットからなる。
我々は、いくつかの代表的個人化フェデレーション学習手法を比較して、ベンチマークのベースラインを確立する。
- 参考スコア(独自算出の注目度): 20.66924459164993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized federated learning considers learning models unique to each
client in a heterogeneous network. The resulting client-specific models have
been purported to improve metrics such as accuracy, fairness, and robustness in
federated networks. However, despite a plethora of work in this area, it
remains unclear: (1) which personalization techniques are most effective in
various settings, and (2) how important personalization truly is for realistic
federated applications. To better answer these questions, we propose Motley, a
benchmark for personalized federated learning. Motley consists of a suite of
cross-device and cross-silo federated datasets from varied problem domains, as
well as thorough evaluation metrics for better understanding the possible
impacts of personalization. We establish baselines on the benchmark by
comparing a number of representative personalized federated learning methods.
These initial results highlight strengths and weaknesses of existing
approaches, and raise several open questions for the community. Motley aims to
provide a reproducible means with which to advance developments in personalized
and heterogeneity-aware federated learning, as well as the related areas of
transfer learning, meta-learning, and multi-task learning.
- Abstract(参考訳): パーソナライズされたフェデレーション学習は、異種ネットワークにおける各クライアント固有の学習モデルを考える。
結果として得られたクライアント固有のモデルは、連合ネットワークにおける正確性、公平性、堅牢性などの指標を改善するために提案されている。
しかし,この分野では多方面にわたる作業にもかかわらず,(1) どのようなパーソナライズ技術が様々な場面でもっとも有効か,(2) 現実的なフェデレーション・アプリケーションにとってパーソナライズがいかに重要であるかは,まだ不明である。
これらの質問に答えるために、パーソナライズされたフェデレーション学習のためのベンチマークであるMotleyを提案する。
motleyは、さまざまな問題領域のクロスデバイスおよびクロスサイロフェデレーションデータセットのスイートと、パーソナライゼーションの影響をより深く理解するための詳細な評価指標で構成されている。
そこで本研究では,代表的フェデレーション学習手法を多数比較することにより,ベンチマークのベースラインを確立する。
これらの最初の結果は、既存のアプローチの強みと弱みを浮き彫りにしている。
motleyは、パーソナライズド・ヘテロゲニティ・アウェア・フェデレーション学習や、トランスファー学習、メタラーニング、マルチタスク学習といった関連分野の発展を促進するための再現可能な手段を提供することを目指している。
関連論文リスト
- FedReMa: Improving Personalized Federated Learning via Leveraging the Most Relevant Clients [13.98392319567057]
Federated Learning (FL) は分散機械学習のパラダイムであり、分散計算と周期モデル合成によってグローバルに堅牢なモデルを実現する。
広く採用されているにもかかわらず、既存のFLとPFLの作業は、クラス不均衡の問題に包括的に対処していない。
本稿では,適応型クライアント間コラーニング手法を用いて,クラス不均衡に対処できる効率的なPFLアルゴリズムであるFedReMaを提案する。
論文 参考訳(メタデータ) (2024-11-04T05:44:28Z) - Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization [35.48757125452761]
フェデレートラーニング(Federated Learning)は、複数の分散デバイス間の協調モデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
本稿では,フェデレーション・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる新しいフェデレーション・プロトタイプ・レクティフィケーションを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:26:46Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - An Empirical Study of Personalized Federated Learning [8.641606056228675]
フェデレートラーニング(Federated Learning)とは、単一のサーバと複数のクライアントが、クライアントでデータセットを共有することなく、共同で機械学習モデルを構築する分散機械学習アプローチである。
この問題に対処するため、多数のフェデレーション学習手法は、パーソナライズされたフェデレーション学習を目標とし、クライアント向けに最適化されたモデルを構築する。
個人化されたフェデレート学習手法が最高のパフォーマンスを達成するのか、これらの手法が標準的(非個人化された)フェデレート学習ではなく、どの程度の進歩を達成できるかは明らかでない。
論文 参考訳(メタデータ) (2022-06-27T11:08:16Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Adapt to Adaptation: Learning Personalization for Cross-Silo Federated
Learning [6.0088002781256185]
従来のフェデレーション学習は、分散データによるクライアントのフェデレーションのためのグローバルモデルをトレーニングすることを目的としている。
非IIDデータセット間の分散シフトは、データヘテロジニティとしても知られ、この1つのグローバルモデルに適合するソリューションにしばしば挑戦する。
我々は、各クライアントが他のクライアントのモデルからどれだけの恩恵を受けることができるかを適応的に学習するパーソナライズされたクロスサイロFLフレームワークであるAPPLEを提案する。
論文 参考訳(メタデータ) (2021-10-15T22:23:14Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。