論文の概要: Local Performance vs. Out-of-Distribution Generalization: An Empirical Analysis of Personalized Federated Learning in Heterogeneous Data Environments
- arxiv url: http://arxiv.org/abs/2510.24503v1
- Date: Tue, 28 Oct 2025 15:15:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.246034
- Title: Local Performance vs. Out-of-Distribution Generalization: An Empirical Analysis of Personalized Federated Learning in Heterogeneous Data Environments
- Title(参考訳): ローカルパフォーマンスとアウト・オブ・ディストリビューション一般化:不均一なデータ環境における個人化フェデレーション学習の実証分析
- Authors: Mortesa Hussaini, Jan Theiß, Anthony Stein,
- Abstract要約: 本研究は,その局所的性能と一般化能力の両方を包含して,フェデレートラーニングアプローチを徹底的に評価することを含む。
本稿では、FLIU (Federated Learning with individualized Updates) に指定されたFedAvgの修正手法を提案し、適応的パーソナライゼーション係数でアルゴリズムをパーソナライゼーションステップで拡張する。
- 参考スコア(独自算出の注目度): 3.186130813218338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of Federated Learning with heterogeneous data environments, local models tend to converge to their own local model optima during local training steps, deviating from the overall data distributions. Aggregation of these local updates, e.g., with FedAvg, often does not align with the global model optimum (client drift), resulting in an update that is suboptimal for most clients. Personalized Federated Learning approaches address this challenge by exclusively focusing on the average local performances of clients' models on their own data distribution. Generalization to out-of-distribution samples, which is a substantial benefit of FedAvg and represents a significant component of robustness, appears to be inadequately incorporated into the assessment and evaluation processes. This study involves a thorough evaluation of Federated Learning approaches, encompassing both their local performance and their generalization capabilities. Therefore, we examine different stages within a single communication round to enable a more nuanced understanding of the considered metrics. Furthermore, we propose and incorporate a modified approach of FedAvg, designated as Federated Learning with Individualized Updates (FLIU), extending the algorithm by a straightforward individualization step with an adaptive personalization factor. We evaluate and compare the approaches empirically using MNIST and CIFAR-10 under various distributional conditions, including benchmark IID and pathological non-IID, as well as additional novel test environments with Dirichlet distribution specifically developed to stress the algorithms on complex data heterogeneity.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)と異種データ環境(heregeneous data environment)のコンテキストでは、ローカルモデルは、局所的なトレーニングステップ中に、データ分布全体から逸脱して、独自のローカルモデルに収束する傾向があります。
これらのローカルアップデートの集約(例えば、FedAvg)は、グローバルモデル最適化(クライアントドリフト)と整合しないことが多いため、ほとんどのクライアントでサブ最適化される。
パーソナライズド・フェデレーション・ラーニング(Personalized Federated Learning)アプローチは、クライアントのモデルの平均的なローカルパフォーマンスを自身のデータ分散にのみフォーカスすることで、この問題に対処する。
分布外のサンプルへの一般化は、FedAvgの実質的な利益であり、ロバスト性の重要な構成要素である。
本研究は,その局所的性能と一般化能力の両方を包含して,フェデレートラーニングアプローチを徹底的に評価することを含む。
そこで,1回の通信ラウンドで異なる段階を検証し,検討されたメトリクスのより微妙な理解を可能にする。
さらに,FLIU (Federated Learning with individualized Updates) として指定されたFedAvgの修正手法を提案し,適応的パーソナライゼーション係数を用いて直接的個別化ステップで拡張する。
我々は,MNIST と CIFAR-10 をベンチマーク IID や病理的非IID など様々な分布条件下で実証的に使用した手法と,複雑なデータ不均一性に重きを置くためにディリクレ分布を用いた新たなテスト環境の評価と比較を行った。
関連論文リスト
- FedHiP: Heterogeneity-Invariant Personalized Federated Learning Through Closed-Form Solutions [22.424881385529783]
我々は、勾配に基づく更新を避けるために、解析的(つまり、クローズドフォーム)な解を通じて、FedHiPと呼ばれる不均質不変な個人化フェデレーション学習スキームを提案する。
提案手法は,分析的局所学習,分析的グローバルアグリゲーション,分析的局所パーソナライゼーションの3段階を含む。
ベンチマークデータセットの実験は、我々のFedHiPスキームの優位性を検証し、最先端のベースラインを少なくとも5.79%-20.97%の精度で上回った。
論文 参考訳(メタデータ) (2025-08-06T14:15:57Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Exploiting Personalized Invariance for Better Out-of-distribution
Generalization in Federated Learning [13.246981646250518]
本稿では, 個人化学習手法と比較して, 個人化非分散を探索する汎用的な二重正規化学習フレームワークを提案する。
本手法は,既存のフェデレーション学習や不変学習よりも,多様なアウト・オブ・ディストリビューションおよび非IIDデータケースにおいて優れていることを示す。
論文 参考訳(メタデータ) (2022-11-21T08:17:03Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。