論文の概要: \textit{FedABC}: Attention-Based Client Selection for Federated Learning with Long-Term View
- arxiv url: http://arxiv.org/abs/2507.20871v1
- Date: Mon, 28 Jul 2025 14:22:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.155307
- Title: \textit{FedABC}: Attention-Based Client Selection for Federated Learning with Long-Term View
- Title(参考訳): \textit{FedABC}:長期的視点によるフェデレーション学習のための注意に基づくクライアント選択
- Authors: Wenxuan Ye, Xueli An, Junfan Wang, Xueqiang Yan, Georg Carle,
- Abstract要約: フェデレートラーニング(FL)により、分散クライアントは、データを直接共有することなく、プライバシを保存することなく、AIモデルを協調的にトレーニングすることができる。
クライアントは、プライベートデータ上でローカルモデルをトレーニングし、モデルのアップデートを共有する。
textitFedABCは、データ不均一性の管理とクライアント参加の最適化において、長期的視点を取り入れた革新的なクライアント選択アルゴリズムである。
- 参考スコア(独自算出の注目度): 5.072601407613152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Native AI support is a key objective in the evolution of 6G networks, with Federated Learning (FL) emerging as a promising paradigm. FL allows decentralized clients to collaboratively train an AI model without directly sharing their data, preserving privacy. Clients train local models on private data and share model updates, which a central server aggregates to refine the global model and redistribute it for the next iteration. However, client data heterogeneity slows convergence and reduces model accuracy, and frequent client participation imposes communication and computational burdens. To address these challenges, we propose \textit{FedABC}, an innovative client selection algorithm designed to take a long-term view in managing data heterogeneity and optimizing client participation. Inspired by attention mechanisms, \textit{FedABC} prioritizes informative clients by evaluating both model similarity and each model's unique contributions to the global model. Moreover, considering the evolving demands of the global model, we formulate an optimization problem to guide \textit{FedABC} throughout the training process. Following the ``later-is-better" principle, \textit{FedABC} adaptively adjusts the client selection threshold, encouraging greater participation in later training stages. Extensive simulations on CIFAR-10 demonstrate that \textit{FedABC} significantly outperforms existing approaches in model accuracy and client participation efficiency, achieving comparable performance with 32\% fewer clients than the classical FL algorithm \textit{FedAvg}, and 3.5\% higher accuracy with 2\% fewer clients than the state-of-the-art. This work marks a step toward deploying FL in heterogeneous, resource-constrained environments, thereby supporting native AI capabilities in 6G networks.
- Abstract(参考訳): ネイティブAIサポートは、6Gネットワークの進化における重要な目標であり、フェデレートラーニング(FL)が有望なパラダイムとして登場している。
FLにより、分散化されたクライアントは、データを直接共有することなく、プライバシを保存することなく、協力的にAIモデルをトレーニングできる。
クライアントは、プライベートデータ上でローカルモデルをトレーニングし、モデルのアップデートを共有する。
しかし、クライアントデータの均一性は収束を遅くし、モデルの精度を低下させ、頻繁なクライアント参加は通信と計算の負担を課します。
これらの課題に対処するために,データの異種性管理とクライアント参加の最適化に長期的な視点を向けた,革新的なクライアント選択アルゴリズムである‘textit{FedABC} を提案する。
注意機構にインスパイアされた \textit{FedABC} は、モデル類似性と各モデルのグローバルモデルに対するユニークなコントリビューションの両方を評価することによって、情報クライアントを優先順位付けする。
さらに,グローバルモデルの要求の進展を考慮し,トレーニングプロセス全体を通してtextit{FedABC} を導出する最適化問題を定式化する。
later-is-better"の原則に従って、‘textit{FedABC} はクライアント選択閾値を適応的に調整し、後のトレーニングステージへのさらなる参加を促す。
CIFAR-10の大規模なシミュレーションでは、モデル精度とクライアント参加効率において既存のアプローチよりも大幅に優れており、従来のFLアルゴリズムより32倍のクライアントで、3.5倍のクライアントで、最先端のクライアントより2倍のクライアントで、同等のパフォーマンスを実現している。
この作業は、異質でリソースに制約のある環境でFLをデプロイするためのステップであり、6GネットワークでのネイティブAI機能をサポートする。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - Federated Learning with Dynamic Client Arrival and Departure: Convergence and Rapid Adaptation via Initial Model Construction [24.71144869427636]
ほとんどのフェデレートされた学習アプローチは、固定されたクライアントセットを前提とします。
現実のシナリオでは、クライアントが特定のタスクに対するニーズや関心に基づいてシステムに参加したり、去ったりすることが多い。
本稿では,クライアントがシステムに参加・離脱するたびに,新しいクライアントセットへの迅速な適応を可能にするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-08T03:22:14Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。