論文の概要: A Snapshot of the Frontiers of Client Selection in Federated Learning
- arxiv url: http://arxiv.org/abs/2210.04607v1
- Date: Tue, 27 Sep 2022 10:08:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 16:27:37.396988
- Title: A Snapshot of the Frontiers of Client Selection in Federated Learning
- Title(参考訳): 連合学習におけるクライアント選択のフロンティアのスナップショット
- Authors: Gergely D\'aniel N\'emeth, Miguel \'Angel Lozano, Novi Quadrianto,
Nuria Oliver
- Abstract要約: 分散機械学習におけるプライバシ保護手法としてフェデレートラーニング(FL)が提案されている。
クライアントはデータをローカルマシンに保持でき、ローカルにトレーニングされたモデルのパラメータのみを中央サーバと共有できる。
FLは医療、エネルギー、ファイナンスといった現実のシナリオで有望な成果を上げている。
- 参考スコア(独自算出の注目度): 5.098446527311984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been proposed as a privacy-preserving approach in
distributed machine learning. A federated learning architecture consists of a
central server and a number of clients that have access to private, potentially
sensitive data. Clients are able to keep their data in their local machines and
only share their locally trained model's parameters with a central server that
manages the collaborative learning process. FL has delivered promising results
in real-life scenarios, such as healthcare, energy, and finance. However, when
the number of participating clients is large, the overhead of managing the
clients slows down the learning. Thus, client selection has been introduced as
a strategy to limit the number of communicating parties at every step of the
process. Since the early na\"{i}ve random selection of clients, several client
selection methods have been proposed in the literature. Unfortunately, given
that this is an emergent field, there is a lack of a taxonomy of client
selection methods, making it hard to compare approaches. In this paper, we
propose a taxonomy of client selection in Federated Learning that enables us to
shed light on current progress in the field and identify potential areas of
future research in this promising area of machine learning.
- Abstract(参考訳): 分散機械学習におけるプライバシー保護手法としてフェデレートラーニング(FL)が提案されている。
フェデレーション学習アーキテクチャは、中央サーバと、プライベートで潜在的に機密性の高いデータにアクセス可能な多数のクライアントで構成される。
クライアントはデータをローカルマシンに保持し、ローカルにトレーニングされたモデルのパラメータのみを、コラボレーティブな学習プロセスを管理する中央サーバと共有することができる。
FLは医療、エネルギー、ファイナンスといった現実のシナリオで有望な成果を上げている。
しかし、参加するクライアントの数が多い場合には、クライアントの管理のオーバーヘッドが学習を遅くする。
したがって、プロセスの各ステップにおける通信相手の数を制限する戦略としてクライアントの選択が導入されている。
初期のna\"{i} はクライアントをランダムに選択して以来、いくつかのクライアント選択手法が文献に提案されている。
残念ながら、これは創発的なフィールドであることを考えると、クライアント選択メソッドの分類が欠けているため、アプローチの比較が困難である。
本稿では,フェデレーテッド・ラーニングにおけるクライアント選択の分類法を提案し,この分野における現在の進歩と,この将来的な機械学習分野における将来的な研究分野の特定を可能にする。
関連論文リスト
- Cohort Squeeze: Beyond a Single Communication Round per Cohort in Cross-Device Federated Learning [51.560590617691005]
各コホートから「より多くのジュースを抽出できるかどうか」を単一の通信ラウンドでできることよりも検討する。
本手法は,デバイス間通信におけるFLモデルのトレーニングに必要な通信コストを最大74%削減する。
論文 参考訳(メタデータ) (2024-06-03T08:48:49Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - A Comprehensive Survey On Client Selections in Federated Learning [3.438094543455187]
トレーニングプロセスに参加するクライアントの選択は、システム全体のパフォーマンスにとって重要な要素である。
フェデレートラーニングにおける最先端クライアント選択技術の概要について概説する。
論文 参考訳(メタデータ) (2023-11-12T10:40:43Z) - Heterogeneity-Guided Client Sampling: Towards Fast and Efficient Non-IID Federated Learning [14.866327821524854]
HiCS-FLはサーバがクライアントの出力層を更新してクライアントデータの統計的不均一性を推定する新しいクライアント選択手法である。
非IID設定では、HiCS-FLは最先端のFLクライアント選択方式よりも高速な収束を実現する。
論文 参考訳(メタデータ) (2023-09-30T00:29:30Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Client Selection in Federated Learning: Principles, Challenges, and
Opportunities [15.33636272844544]
Federated Learning(FL)は、機械学習(ML)モデルをトレーニングするためのプライバシー保護パラダイムである。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
様々なクライアント選択アルゴリズムが開発され、性能改善が期待できる。
論文 参考訳(メタデータ) (2022-11-03T01:51:14Z) - Federated Select: A Primitive for Communication- and Memory-Efficient
Federated Learning [4.873569522869751]
Federated Learning(FL)は、異種クライアントデバイス間で機械学習を行うためのフレームワークである。
クライアントがどの値を送信するかを"選択"する,より一般的な手順を提案する。
これにより、クライアントは小さなデータ依存スライスで操作できる。
論文 参考訳(メタデータ) (2022-08-19T16:26:03Z) - FedSS: Federated Learning with Smart Selection of clients [1.7265013728931]
フェデレーション学習は、ユーザのプライバシを保ちながら、異質なユーザデータを分散的に学習する機能を提供する。
提案するアイデアは,スマートクライアントの選択とスケジューリング手法を検討することで,高速収束と不均一性の間のスイートスポットを見つけることを目的としている。
論文 参考訳(メタデータ) (2022-07-10T23:55:47Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。