論文の概要: FedQS: Optimizing Gradient and Model Aggregation for Semi-Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2510.07664v1
- Date: Thu, 09 Oct 2025 01:32:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.805529
- Title: FedQS: Optimizing Gradient and Model Aggregation for Semi-Asynchronous Federated Learning
- Title(参考訳): FedQS: 半非同期フェデレーション学習のためのグラディエントとモデル集約の最適化
- Authors: Yunbo Li, Jiaping Gui, Zhihang Deng, Fanchao Meng, Yue Wu,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有することなく、複数のパーティ間で協調的なモデルトレーニングを可能にする。
本稿では,SAFLにおけるこれらの格差を理論的に解析し対処する最初のフレームワークであるFedQSについて述べる。
我々の研究は、SAFLにおける集約戦略のギャップを埋め、安定的で正確で効率的な連合学習のための統一されたソリューションを提供する。
- 参考スコア(独自算出の注目度): 8.906501632865908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaborative model training across multiple parties without sharing raw data, with semi-asynchronous FL (SAFL) emerging as a balanced approach between synchronous and asynchronous FL. However, SAFL faces significant challenges in optimizing both gradient-based (e.g., FedSGD) and model-based (e.g., FedAvg) aggregation strategies, which exhibit distinct trade-offs in accuracy, convergence speed, and stability. While gradient aggregation achieves faster convergence and higher accuracy, it suffers from pronounced fluctuations, whereas model aggregation offers greater stability but slower convergence and suboptimal accuracy. This paper presents FedQS, the first framework to theoretically analyze and address these disparities in SAFL. FedQS introduces a divide-and-conquer strategy to handle client heterogeneity by classifying clients into four distinct types and adaptively optimizing their local training based on data distribution characteristics and available computational resources. Extensive experiments on computer vision, natural language processing, and real-world tasks demonstrate that FedQS achieves the highest accuracy, attains the lowest loss, and ranks among the fastest in convergence speed, outperforming state-of-the-art baselines. Our work bridges the gap between aggregation strategies in SAFL, offering a unified solution for stable, accurate, and efficient federated learning. The code and datasets are available at https://anonymous.4open.science/r/FedQS-EDD6.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有することなく、複数のパーティ間で協調的なモデルトレーニングを可能にし、非同期FLと非同期FLのバランスの取れたアプローチとして半非同期FL(SAFL)が出現する。
しかし、SAFLは勾配ベース(例えば、FedSGD)とモデルベース(例えば、FedAvg)のアグリゲーション戦略の両方を最適化する上で大きな課題に直面している。
勾配アグリゲーションはより高速な収束と高い精度を達成する一方、モデルアグリゲーションはより安定性が高いが、収束が遅く、最適下限の精度が低い。
本稿では,SAFLにおけるこれらの格差を理論的に解析し対処する最初のフレームワークであるFedQSについて述べる。
FedQSは、クライアントを4つの異なるタイプに分類し、データ分散特性と利用可能な計算リソースに基づいて、そのローカルトレーニングを適応的に最適化することで、クライアントの不均一性を扱うための分断型戦略を導入している。
コンピュータビジョン、自然言語処理、実世界のタスクに関する大規模な実験は、FedQSが最も精度が高く、最も損失が低く、収束速度が最速であり、最先端のベースラインを上回っていることを示している。
我々の研究は、SAFLにおける集約戦略のギャップを埋め、安定的で正確で効率的な連合学習のための統一されたソリューションを提供する。
コードとデータセットはhttps://anonymous.4open.science/r/FedQS-EDD6で公開されている。
関連論文リスト
- Asynchronous Federated Learning with non-convex client objective functions and heterogeneous dataset [0.9208007322096533]
Tosampling Federated Learning (FL)は、不安定なデータのプライバシを保持しながら、分散デバイス間のコラボレーティブモデルを可能にする。
非同期学習(AFL)は、クライアントが独立して更新できるようにし、スケーラビリティを改善し、同期を遅くすることで、これらの問題に対処する。
我々のフレームワークは、データパワー、分散、通信のバリエーションに対応しており、現実世界のアプリケーションに実用的です。
論文 参考訳(メタデータ) (2025-08-03T09:06:42Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedStaleWeight: Buffered Asynchronous Federated Learning with Fair Aggregation via Staleness Reweighting [9.261784956541641]
非同期フェデレートラーニング(AFL)メソッドは、最も遅いエージェントによる非同期フェデレーションに代わる、有望な代替手段として登場した。
AFLモデルでは、更新を高速に生成できるエージェントに対して、遅いエージェントを残してトレーニングを行う。
我々はFedStaleWeightを紹介した。これは非同期クライアント更新の集約に、平均安定化を利用して公平な再重み付けを計算するアルゴリズムである。
論文 参考訳(メタデータ) (2024-06-05T02:52:22Z) - Asynchronous Federated Stochastic Optimization for Heterogeneous Objectives Under Arbitrary Delays [1.9766522384767224]
underlineAsynchunderlineRonous underlineExact underlineAveraging (textscAREA)
textscAREAは勾配推定よりもモデル残差を通信し、勾配反転への露出を減らす。
最初は、最低または最大ではなく、平均的なクライアント更新頻度でスケールするレートを取得しました。
論文 参考訳(メタデータ) (2024-05-16T14:22:49Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Speeding up Heterogeneous Federated Learning with Sequentially Trained
Superclients [19.496278017418113]
フェデレートラーニング(FL)は、ローカルなデータ共有を必要とせず、エッジデバイスの協調を可能にすることにより、プライバシに制約のあるシナリオで機械学習モデルをトレーニングすることを可能にする。
このアプローチは、ローカルデータセットとクライアントの計算的不均一性の異なる統計分布のために、いくつかの課題を提起する。
我々は、多種多様なクライアント、すなわちスーパークオリエントの部分グループのシーケンシャルトレーニングを活用して、集中型パラダイムをプライバシに準拠した方法でエミュレートする新しいフレームワークであるFedSeqを提案する。
論文 参考訳(メタデータ) (2022-01-26T12:33:23Z) - CSAFL: A Clustered Semi-Asynchronous Federated Learning Framework [14.242716751043533]
Federated Learning(FL)は、プライバシーを保護し、孤立したデータ島の問題に取り組む、新たな分散機械学習パラダイムである。
FLの主な通信戦略は、同期FLと非同期FLの2つである。
クラスタ化された半非同期フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-16T15:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。