論文の概要: FedLECC: Cluster- and Loss-Guided Client Selection for Federated Learning under Non-IID Data
- arxiv url: http://arxiv.org/abs/2603.08911v1
- Date: Mon, 09 Mar 2026 20:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.816156
- Title: FedLECC: Cluster- and Loss-Guided Client Selection for Federated Learning under Non-IID Data
- Title(参考訳): FedLECC:非IIDデータに基づくフェデレーション学習のためのクラスタおよびロスガイドクライアント選択
- Authors: Daniel M. Jimenez-Gutierrez, Giovanni Giunta, Mehrdad Hassanzadeh, Aris Anagnostopoulos, Ioannis Chatzigiannakis, Andrea Vitaletti,
- Abstract要約: Federated Learning (FL)は、クラウドエッジ環境をまたいだ分散人工知能(AI)を実現する。
本稿では、デバイス間FLのための軽量でクラスタ対応で損失誘導型クライアント選択戦略であるFedLECCを提案する。
- 参考スコア(独自算出の注目度): 1.7230409592804714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables distributed Artificial Intelligence (AI) across cloud-edge environments by allowing collaborative model training without centralizing data. In cross-device deployments, FL systems face strict communication and participation constraints, as well as strong non-independent and identically distributed (non-IID) data that degrades convergence and model quality. Since only a subset of devices (a.k.a clients) can participate per training round, intelligent client selection becomes a key systems challenge. This paper proposes FedLECC (Federated Learning with Enhanced Cluster Choice), a lightweight, cluster-aware, and loss-guided client selection strategy for cross-device FL. FedLECC groups clients by label-distribution similarity and prioritizes clusters and clients with higher local loss, enabling the selection of a small yet informative and diverse set of clients. Experimental results under severe label skew show that FedLECC improves test accuracy by up to 12%, while reducing communication rounds by approximately 22% and overall communication overhead by up to 50% compared to strong baselines. These results demonstrate that informed client selection improves the efficiency and scalability of FL workloads in cloud-edge systems.
- Abstract(参考訳): フェデレートラーニング(FL)は、データを集中化せずに協調的なモデルトレーニングを可能にすることによって、クラウドエッジ環境をまたいだ分散人工知能(AI)を可能にする。
デバイス間のデプロイメントでは、FLシステムは厳密な通信と参加の制約に直面し、コンバージェンスとモデル品質を低下させる強力な非独立で同一に分散された(非IID)データに直面する。
トレーニングラウンドごとにデバイスの一部(つまりクライアント)しか参加できないため、インテリジェントクライアントの選択は重要なシステム課題となる。
本稿では,FedLECC(Federated Learning with Enhanced Cluster Choice)を提案する。
FedLECCは、ラベルと配布の類似性によってクライアントをグループ化し、クラスタとクライアントを高いローカル損失で優先順位付けすることで、小さなが情報に富んだ多様なクライアントの選択を可能にします。
重度ラベルスキューによる実験の結果,FedLECCは試験精度を最大12%向上し,通信ラウンドを約22%削減し,通信オーバヘッドを最大50%低減した。
これらの結果は,クライアント選択によってクラウドエッジシステムにおけるFLワークロードの効率性とスケーラビリティが向上することを示す。
関連論文リスト
- Communication-Efficient Federated Learning with Adaptive Number of Participants [40.546240088040214]
Intelligent Selection of Participants (ISP)は、ラウンド毎に最適なクライアント数を動的に決定する適応的なメカニズムである。
最終品質を損なうことなく、一貫したコミュニケーションの節約率を最大30%まで示す。
ISPをさまざまな現実世界のECG分類設定に適用することは、フェデレートラーニングの別のタスクとして、クライアント数の選択を強調した。
論文 参考訳(メタデータ) (2025-08-19T13:04:10Z) - FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。