論文の概要: FedEve: On Bridging the Client Drift and Period Drift for Cross-device Federated Learning
- arxiv url: http://arxiv.org/abs/2508.14539v1
- Date: Wed, 20 Aug 2025 08:42:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.399741
- Title: FedEve: On Bridging the Client Drift and Period Drift for Cross-device Federated Learning
- Title(参考訳): FedEve: クロスデバイスフェデレーション学習のためのクライアントドリフトと期間ドリフトのブリッジについて
- Authors: Tao Shen, Zexi Li, Didi Zhu, Ziyu Zhao, Chao Wu, Fei Wu,
- Abstract要約: Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずに、共同で共有モデルをトレーニングできる機械学習パラダイムである。
データの不均一性はFLの基本的な課題であり、収束性の低下と性能劣化をもたらす可能性がある。
本稿では,これらの2種類のドリフトが相互に補償し,その全体的な影響を緩和する,予測オブザーブフレームワークを提案し,そのインスタンス化手法であるFedEveを提案する。
- 参考スコア(独自算出の注目度): 16.378163787768347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a machine learning paradigm that allows multiple clients to collaboratively train a shared model without exposing their private data. Data heterogeneity is a fundamental challenge in FL, which can result in poor convergence and performance degradation. Client drift has been recognized as one of the factors contributing to this issue resulting from the multiple local updates in FedAvg. However, in cross-device FL, a different form of drift arises due to the partial client participation, but it has not been studied well. This drift, we referred as period drift, occurs as participating clients at each communication round may exhibit distinct data distribution that deviates from that of all clients. It could be more harmful than client drift since the optimization objective shifts with every round. In this paper, we investigate the interaction between period drift and client drift, finding that period drift can have a particularly detrimental effect on cross-device FL as the degree of data heterogeneity increases. To tackle these issues, we propose a predict-observe framework and present an instantiated method, FedEve, where these two types of drift can compensate each other to mitigate their overall impact. We provide theoretical evidence that our approach can reduce the variance of model updates. Extensive experiments demonstrate that our method outperforms alternatives on non-iid data in cross-device settings.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずに、共同で共有モデルをトレーニングできる機械学習パラダイムである。
データの不均一性はFLの基本的な課題であり、収束性の低下と性能劣化をもたらす可能性がある。
クライアントのドリフトは、FedAvgの複数のローカルアップデートの結果、この問題に寄与する要因の1つとして認識されている。
しかし、デバイス横断FLでは、部分的なクライアントの参加によって異なる形態のドリフトが発生するが、十分に研究されていない。
このドリフトは、周期ドリフトと呼ばれ、各通信ラウンドに参加するクライアントが、すべてのクライアントのドリフトと異なるデータ分布を示す可能性があるため、発生する。
最適化の目標が各ラウンドでシフトするため、クライアントのドリフトよりも有害になる可能性がある。
本稿では,データの不均一性が増大するにつれて,周期ドリフトとクライアントドリフトの相互作用について検討し,時間ドリフトがデバイス間FLに特に有害な影響を及ぼすことを示した。
これらの課題に対処するため,我々は予測観測フレームワークを提案し,これらの2種類のドリフトが相互に補償し,その全体的な影響を緩和するインスタンス化手法であるFedEveを提案する。
提案手法がモデル更新のばらつきを低減できるという理論的証拠を提供する。
本手法はデバイス間設定において,非IDデータに対する代替手段よりも優れていることを示す。
関連論文リスト
- Drift-Aware Federated Learning: A Causal Perspective [12.147553697274951]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のクライアント間の協調モデルトレーニングを容易にする。
本稿では, モデル更新ドリフトとグローバルドリフト, および因果的観点からの局所的関係について検討する。
本稿では,このドリフトを緩和するためのCausal drift-Aware Federated lEarning (CAFE) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T07:05:30Z) - Federated Learning Clients Clustering with Adaptation to Data Drifts [27.974937897248132]
フェデレートラーニング(FL)は、生データを集中することなく、エッジデバイスをまたいだディープモデルをトレーニングし、ユーザのプライバシを保護します。
低オーバーヘッドで多種多様なデータドリフトを処理するためのフレームワークであるFIELdingを提案する。
実験の結果、FIELDINGは最終モデルの精度を1.9-5.9%向上し、目標の精度は既存の最先端CFL法よりも1.16x-2.23倍向上した。
論文 参考訳(メタデータ) (2024-11-03T14:13:38Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Adaptive Self-Distillation for Minimizing Client Drift in Heterogeneous
Federated Learning [9.975023463908496]
Federated Learning(FL)は、クライアントがローカルトレーニングデータを共有せずに、局所的にトレーニングされたモデルを集約することで、グローバルモデルの共同トレーニングを可能にする機械学習パラダイムである。
本稿では,適応自己蒸留(ASD)に基づく新たな正規化手法を提案する。
我々の正規化方式は,グローバルモデルエントロピーとクライアントのラベル分布に基づいて,クライアントのトレーニングデータに適応的に適応的に適応する。
論文 参考訳(メタデータ) (2023-05-31T07:00:42Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - AdaBest: Minimizing Client Drift in Federated Learning via Adaptive Bias
Estimation [12.62716075696359]
フェデレートラーニング(FL)では、多くのクライアントやデバイスが協力して、データを共有せずにモデルをトレーニングします。
このドリフトを推定・除去するために、近年FL最適化に分散低減技術が組み込まれている。
本稿では,クライアント間のドリフトを正確に推定する適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-27T20:04:24Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。