論文の概要: FedABC: Attention-Based Client Selection for Federated Learning with Long-Term View
- arxiv url: http://arxiv.org/abs/2507.20871v2
- Date: Thu, 14 Aug 2025 08:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 13:42:23.447057
- Title: FedABC: Attention-Based Client Selection for Federated Learning with Long-Term View
- Title(参考訳): FedABC: 長期的視点によるフェデレーションラーニングのためのアテンションベースのクライアント選択
- Authors: Wenxuan Ye, Xueli An, Junfan Wang, Xueqiang Yan, Georg Carle,
- Abstract要約: フェデレートラーニング(FL)により、分散クライアントは、データを直接共有することなく、プライバシを保存することなく、AIモデルを協調的にトレーニングすることができる。
我々は、データ不均一性の管理とクライアント参加の最適化において、長期的視点を取り入れた革新的なクライアント選択アルゴリズムであるFedABCを提案する。
この作業は、異質でリソースに制約のある環境でFLをデプロイするためのステップであり、6GネットワークでのネイティブAI機能をサポートする。
- 参考スコア(独自算出の注目度): 5.072601407613152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Native AI support is a key objective in the evolution of 6G networks, with Federated Learning (FL) emerging as a promising paradigm. FL allows decentralized clients to collaboratively train an AI model without directly sharing their data, preserving privacy. Clients train local models on private data and share model updates, which a central server aggregates to refine the global model and redistribute it for the next iteration. However, client data heterogeneity slows convergence and reduces model accuracy, and frequent client participation imposes communication and computational burdens. To address these challenges, we propose FedABC, an innovative client selection algorithm designed to take a long-term view in managing data heterogeneity and optimizing client participation. Inspired by attention mechanisms, FedABC prioritizes informative clients by evaluating both model similarity and each model's unique contributions to the global model. Moreover, considering the evolving demands of the global model, we formulate an optimization problem to guide FedABC throughout the training process. Following the "later-is-better" principle, FedABC adaptively adjusts the client selection threshold, encouraging greater participation in later training stages. Extensive simulations on CIFAR-10 demonstrate that FedABC significantly outperforms existing approaches in model accuracy and client participation efficiency, achieving comparable performance with 32% fewer clients than the classical FL algorithm FedAvg, and 3.5% higher accuracy with 2% fewer clients than the state-of-the-art. This work marks a step toward deploying FL in heterogeneous, resource-constrained environments, thereby supporting native AI capabilities in 6G networks.
- Abstract(参考訳): ネイティブAIサポートは、6Gネットワークの進化における重要な目標であり、フェデレートラーニング(FL)が有望なパラダイムとして登場している。
FLにより、分散化されたクライアントは、データを直接共有することなく、プライバシを保存することなく、協力的にAIモデルをトレーニングできる。
クライアントは、プライベートデータ上でローカルモデルをトレーニングし、モデルのアップデートを共有する。
しかし、クライアントデータの均一性は収束を遅くし、モデルの精度を低下させ、頻繁なクライアント参加は通信と計算の負担を課します。
これらの課題に対処するため、FedABCは、データの異種性管理とクライアント参加の最適化に長期的な視点を向けた、革新的なクライアント選択アルゴリズムである。
注意機構にインスパイアされたFedABCは、各モデルの類似性とグローバルモデルに対するユニークな貢献の両方を評価することによって、情報的クライアントを優先する。
さらに,グローバルモデルの要求の進展を考慮し,FedABCをトレーニングプロセスを通じて誘導する最適化問題を定式化する。
後続の原則に従って、FedABCはクライアント選択閾値を適応的に調整し、後続のトレーニングステージへのさらなる参加を促す。
CIFAR-10の大規模なシミュレーションにより、FedABCはモデル精度とクライアント参加効率において既存のアプローチを著しく上回り、従来のFLアルゴリズムであるFedAvgよりも32%、最先端のクライアントより3.5%高い精度でクライアントと同等の性能を達成した。
この作業は、異質でリソースに制約のある環境でFLをデプロイするためのステップであり、6GネットワークでのネイティブAI機能をサポートする。
関連論文リスト
- Not All Clients Are Equal: Personalized Federated Learning on Heterogeneous Multi-Modal Clients [52.14230635007546]
ファンデーションモデルは多様なマルチモーダルタスクにまたがって顕著な能力を示してきたが、その集中的なトレーニングはプライバシーの懸念を高め、高い伝達コストを引き起こす。
異なるユーザー目的のためにAIモデルをパーソナライズする需要が高まっているため、パーソナライズされたフェデレーションラーニング(PFL)が出現している。
PFLは、各クライアントが他のクライアントの知識を活用して、データを共有することなく、個々のユーザの好みにさらに適応することを可能にする。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - Towards Seamless Hierarchical Federated Learning under Intermittent Client Participation: A Stagewise Decision-Making Methodology [31.571298699019255]
Hierarchical Federated Learning (HFL)は、クライアントを複数のクラスタにまとめ、中間モデルアグリゲーションにエッジノードを使用する。
HFLに関する現在の研究は主に、安定した固定されたクライアントセットを持つシナリオにおけるモデル精度、レイテンシ、エネルギー消費の向上に焦点を当てている。
本研究は, 断続的クライアント参加下でのHFLにおけるクライアント選択とクライアント間アソシエーションの最適化について検討する。
論文 参考訳(メタデータ) (2025-02-13T13:16:10Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - Federated Learning with Dynamic Client Arrival and Departure: Convergence and Rapid Adaptation via Initial Model Construction [24.71144869427636]
ほとんどのフェデレートされた学習アプローチは、固定されたクライアントセットを前提とします。
現実のシナリオでは、クライアントが特定のタスクに対するニーズや関心に基づいてシステムに参加したり、去ったりすることが多い。
本稿では,クライアントがシステムに参加・離脱するたびに,新しいクライアントセットへの迅速な適応を可能にするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-08T03:22:14Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。