論文の概要: Heterogeneity-Aware Client Selection Methodology For Efficient Federated Learning
- arxiv url: http://arxiv.org/abs/2602.20450v1
- Date: Tue, 24 Feb 2026 01:19:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.566544
- Title: Heterogeneity-Aware Client Selection Methodology For Efficient Federated Learning
- Title(参考訳): 効率的フェデレート学習のための不均一性を考慮したクライアント選択手法
- Authors: Nihal Balivada, Shrey Gupta, Shashank Shreedhar Bhatt, Suyash Gupta,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントが機密データを共有することなく、グローバル機械学習(ML)モデルを協調的にトレーニングする分散クライアントサーバアーキテクチャを実現する。
FLは、クライアント間の統計的不均一性により、従来のMLアルゴリズムよりも精度が低いことが多い。
我々は、勾配更新と決定論的選択アルゴリズムを使用して、再トレーニングのための異種クライアントを選択する新しいクライアント選択手法であるTerraformを紹介する。
- 参考スコア(独自算出の注目度): 2.154836869144035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables a distributed client-server architecture where multiple clients collaboratively train a global Machine Learning (ML) model without sharing sensitive local data. However, FL often results in lower accuracy than traditional ML algorithms due to statistical heterogeneity across clients. Prior works attempt to address this by using model updates, such as loss and bias, from client models to select participants that can improve the global model's accuracy. However, these updates neither accurately represent a client's heterogeneity nor are their selection methods deterministic. We mitigate these limitations by introducing Terraform, a novel client selection methodology that uses gradient updates and a deterministic selection algorithm to select heterogeneous clients for retraining. This bi-pronged approach allows Terraform to achieve up to 47 percent higher accuracy over prior works. We further demonstrate its efficiency through comprehensive ablation studies and training time analyses, providing strong justification for the robustness of Terraform.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントが機密データを共有することなく、グローバル機械学習(ML)モデルを協調的にトレーニングする分散クライアントサーバアーキテクチャを実現する。
しかし、FLはクライアント間の統計的不均一性のため、従来のMLアルゴリズムよりも精度が低いことが多い。
これまでの作業では、損失やバイアスといったモデル更新をクライアントモデルから、グローバルモデルの正確性を改善することのできる参加者を選択することで、この問題に対処しようとしていた。
しかし、これらの更新は、クライアントの不均一性を表すものでも、その選択方法が決定論的でもない。
これは、勾配更新と決定論的選択アルゴリズムを使用して、再トレーニングのための異種クライアントを選択する新しいクライアント選択手法です。
この双方向アプローチにより、Terraformは以前の作業よりも47%高い精度を達成できる。
さらに、包括的なアブレーション研究とトレーニング時間分析を通じてその効率性を実証し、Terraformの堅牢性に対する強力な正当化を提供します。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Heterogeneity-Guided Client Sampling: Towards Fast and Efficient Non-IID Federated Learning [14.866327821524854]
HiCS-FLはサーバがクライアントの出力層を更新してクライアントデータの統計的不均一性を推定する新しいクライアント選択手法である。
非IID設定では、HiCS-FLは最先端のFLクライアント選択方式よりも高速な収束を実現する。
論文 参考訳(メタデータ) (2023-09-30T00:29:30Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Gradient Masked Averaging for Federated Learning [24.687254139644736]
フェデレートラーニングは、統一グローバルモデルの学習を協調するために、異種データを持つ多数のクライアントを可能にする。
標準FLアルゴリズムは、サーバのグローバルモデルを近似するために、モデルパラメータや勾配の更新を平均化する。
本稿では,クライアント更新の標準平均化の代替として,FLの勾配マスク平均化手法を提案する。
論文 参考訳(メタデータ) (2022-01-28T08:42:43Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。