論文の概要: FedSUM Family: Efficient Federated Learning Methods under Arbitrary Client Participation
- arxiv url: http://arxiv.org/abs/2512.18275v1
- Date: Sat, 20 Dec 2025 08:41:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.269891
- Title: FedSUM Family: Efficient Federated Learning Methods under Arbitrary Client Participation
- Title(参考訳): FedSUMファミリー:任意顧客参加による効率的なフェデレーション学習手法
- Authors: Runze You, Shi Pu,
- Abstract要約: フェデレートラーニング(FL)メソッドは、多くの場合、特定のクライアント参加パターンのために設計され、実践的なデプロイメントにおける適用性を制限する。
データの不均一性を仮定することなく任意のクライアント参加をサポートするアルゴリズムであるFedSUMファミリを紹介する。
我々は,様々な参加者パターンにまたがるアプローチの有効性を示す統一収束保証を行い,現実のシナリオにおけるFLの適用性を広げる。
- 参考スコア(独自算出の注目度): 6.30683394441133
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) methods are often designed for specific client participation patterns, limiting their applicability in practical deployments. We introduce the FedSUM family of algorithms, which supports arbitrary client participation without additional assumptions on data heterogeneity. Our framework models participation variability with two delay metrics, the maximum delay $τ_{\max}$ and the average delay $τ_{\text{avg}}$. The FedSUM family comprises three variants: FedSUM-B (basic version), FedSUM (standard version), and FedSUM-CR (communication-reduced version). We provide unified convergence guarantees demonstrating the effectiveness of our approach across diverse participation patterns, thereby broadening the applicability of FL in real-world scenarios.
- Abstract(参考訳): フェデレートラーニング(FL)メソッドは、多くの場合、特定のクライアント参加パターンのために設計され、実践的なデプロイメントにおける適用性を制限する。
データの不均一性を仮定することなく任意のクライアント参加をサポートするアルゴリズムであるFedSUMファミリを紹介する。
私たちのフレームワークは、最大遅延$τ_{\max}$と平均遅延$τ_{\text{avg}}$の2つの遅延メトリクスで、ばらつきをモデル化します。
FedSUMファミリーは、FedSUM-B(ベースバージョン)、FedSUM(標準バージョン)、FedSUM-CR(通信再生版)の3つのバリエーションで構成されている。
我々は,様々な参加者パターンにまたがるアプローチの有効性を示す統一収束保証を行い,現実のシナリオにおけるFLの適用性を広げる。
関連論文リスト
- FedAPM: Federated Learning via ADMM with Partial Model Personalization [12.72555825043549]
FL(Federated Learning)では、異なるデバイスからのデータセットが独立であり、同じ分散(すなわち、同じ分散)であるという仮定は、ユーザ差によって保持されないことが多い。
本稿では、FedAPMと呼ばれる乗算器の交互方向法(ADMM)に基づくFLフレームワークを提案し、クライアントのドリフトを緩和する。
論文 参考訳(メタデータ) (2025-06-05T06:38:29Z) - Not All Clients Are Equal: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients [59.52341877720199]
計算コストを伴わずに異種アーキテクチャ間の知識共有を可能にするFedMosaicを提案する。
実世界のタスクの多様性を模倣するために,40の異なるタスクにまたがるマルチモーダルPFLベンチマークを提案する。
実証研究は、FedMosaicが最先端のPFL法より優れていることを示している。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Submodular Maximization Approaches for Equitable Client Selection in Federated Learning [4.167345675621377]
従来の学習フレームワークでは、トレーニングのためのクライアント選択は、通常、各イテレーションでクライアントのサブセットをランダムにサンプリングする。
本稿では,ランダムクライアント選択の限界に対処するために,SUBTRUNCとUNIONFLという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-24T22:40:31Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。