論文の概要: Client Selection in Federated Learning: Principles, Challenges, and
Opportunities
- arxiv url: http://arxiv.org/abs/2211.01549v2
- Date: Wed, 26 Jul 2023 15:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 16:24:39.140244
- Title: Client Selection in Federated Learning: Principles, Challenges, and
Opportunities
- Title(参考訳): 連合学習における顧客選択:原則、課題、機会
- Authors: Lei Fu and Huanle Zhang and Ge Gao and Mi Zhang and Xin Liu
- Abstract要約: Federated Learning(FL)は、機械学習(ML)モデルをトレーニングするためのプライバシー保護パラダイムである。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
様々なクライアント選択アルゴリズムが開発され、性能改善が期待できる。
- 参考スコア(独自算出の注目度): 15.33636272844544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a privacy-preserving paradigm for training Machine Learning (ML) models,
Federated Learning (FL) has received tremendous attention from both industry
and academia. In a typical FL scenario, clients exhibit significant
heterogeneity in terms of data distribution and hardware configurations. Thus,
randomly sampling clients in each training round may not fully exploit the
local updates from heterogeneous clients, resulting in lower model accuracy,
slower convergence rate, degraded fairness, etc. To tackle the FL client
heterogeneity problem, various client selection algorithms have been developed,
showing promising performance improvement. In this paper, we systematically
present recent advances in the emerging field of FL client selection and its
challenges and research opportunities. We hope to facilitate practitioners in
choosing the most suitable client selection mechanisms for their applications,
as well as inspire researchers and newcomers to better understand this exciting
research topic.
- Abstract(参考訳): 機械学習(ML)モデルをトレーニングするためのプライバシ保護パラダイムとして、フェデレートラーニング(FL)は、業界と学術の両方から大きな注目を集めています。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
したがって、各トレーニングラウンドのクライアントをランダムにサンプリングすることは、ヘテロジニアスクライアントからのローカル更新を十分に活用できないため、モデルの精度が低下し、収束速度が遅くなり、公平性が低下する。
FLクライアントの不均一性問題に対処するため,様々なクライアント選択アルゴリズムが開発され,性能改善が期待できる。
本稿では,FLクライアント選択の新興分野における最近の進歩とその課題と研究の機会を体系的に提示する。
このエキサイティングな研究トピックをより深く理解するために、アプリケーションに最適なクライアント選択メカニズムを実践者が選択できるようにしたいと思っています。
関連論文リスト
- Submodular Maximization Approaches for Equitable Client Selection in Federated Learning [4.167345675621377]
従来の学習フレームワークでは、トレーニングのためのクライアント選択は、通常、各イテレーションでクライアントのサブセットをランダムにサンプリングする。
本稿では,ランダムクライアント選択の限界に対処するために,SUBTRUNCとUNIONFLという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-24T22:40:31Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Heterogeneity-Guided Client Sampling: Towards Fast and Efficient Non-IID Federated Learning [14.866327821524854]
HiCS-FLはサーバがクライアントの出力層を更新してクライアントデータの統計的不均一性を推定する新しいクライアント選択手法である。
非IID設定では、HiCS-FLは最先端のFLクライアント選択方式よりも高速な収束を実現する。
論文 参考訳(メタデータ) (2023-09-30T00:29:30Z) - A Systematic Literature Review on Client Selection in Federated Learning [0.0]
2017年にFL(Federated Learning)が発明され、モバイルデバイスなどのクライアントがモデルをトレーニングし、集中型サーバにアップデートを送信する。
このSLRは、FLにおけるクライアントの選択技術の現状を調査し、ソリューションを評価するための課題、ソリューション、メトリクスに答えます。
論文 参考訳(メタデータ) (2023-06-08T01:26:22Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - A Snapshot of the Frontiers of Client Selection in Federated Learning [5.098446527311984]
分散機械学習におけるプライバシ保護手法としてフェデレートラーニング(FL)が提案されている。
クライアントはデータをローカルマシンに保持でき、ローカルにトレーニングされたモデルのパラメータのみを中央サーバと共有できる。
FLは医療、エネルギー、ファイナンスといった現実のシナリオで有望な成果を上げている。
論文 参考訳(メタデータ) (2022-09-27T10:08:18Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。