論文の概要: Enhancing the Performance of Global Model by Improving the Adaptability of Local Models in Federated Learning
- arxiv url: http://arxiv.org/abs/2505.10125v1
- Date: Thu, 15 May 2025 09:51:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.269337
- Title: Enhancing the Performance of Global Model by Improving the Adaptability of Local Models in Federated Learning
- Title(参考訳): フェデレーション学習における局所モデルの適応性向上によるグローバルモデルの性能向上
- Authors: Wujun Zhou, Shu Ding, ZeLin Li, Wei Wang,
- Abstract要約: フェデレートラーニングは、クライアントがローカルモデルから集約されたグローバルモデルを協調的にトレーニングすることを可能にする。
クライアント上の不均一なデータ分布とフェデレートラーニングにおけるデータプライバシのため,ローカルモデルをトレーニングして,優れたグローバルモデルを実現することは困難である。
我々は,局所モデルの適応性を導入し,局所モデルの適応性を向上させることでグローバルモデルの性能を向上させる。
- 参考スコア(独自算出の注目度): 5.783667435751743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning enables the clients to collaboratively train a global model, which is aggregated from local models. Due to the heterogeneous data distributions over clients and data privacy in federated learning, it is difficult to train local models to achieve a well-performed global model. In this paper, we introduce the adaptability of local models, i.e., the average performance of local models on data distributions over clients, and enhance the performance of the global model by improving the adaptability of local models. Since each client does not know the data distributions over other clients, the adaptability of the local model cannot be directly optimized. First, we provide the property of an appropriate local model which has good adaptability on the data distributions over clients. Then, we formalize the property into the local training objective with a constraint and propose a feasible solution to train the local model. Extensive experiments on federated learning benchmarks demonstrate that our method significantly improves the adaptability of local models and achieves a well-performed global model that consistently outperforms the baseline methods.
- Abstract(参考訳): フェデレートラーニングは、クライアントがローカルモデルから集約されたグローバルモデルを協調的にトレーニングすることを可能にする。
クライアント上の不均一なデータ分布とフェデレートラーニングにおけるデータプライバシのため,ローカルモデルをトレーニングして,優れたグローバルモデルを実現することは困難である。
本稿では,ローカルモデルの適応性,すなわちクライアント上のデータ配信におけるローカルモデルの平均性能について紹介し,ローカルモデルの適応性を向上させることでグローバルモデルの性能を向上させる。
各クライアントは他のクライアント上でのデータ分散を知らないので、ローカルモデルの適応性を直接最適化することはできない。
まず、クライアント上のデータ分布に適応性のある適切なローカルモデルの特性を提供する。
そこで,本研究では,局所学習目標に制約を加えて定式化し,局所モデルを学習するための実現可能なソリューションを提案する。
フェデレート学習ベンチマークの大規模な実験により,本手法は局所モデルの適応性を大幅に向上し,ベースライン手法を一貫して上回る優れたグローバルモデルを実現することを示した。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Adaptive Self-Distillation for Minimizing Client Drift in Heterogeneous
Federated Learning [9.975023463908496]
Federated Learning(FL)は、クライアントがローカルトレーニングデータを共有せずに、局所的にトレーニングされたモデルを集約することで、グローバルモデルの共同トレーニングを可能にする機械学習パラダイムである。
本稿では,適応自己蒸留(ASD)に基づく新たな正規化手法を提案する。
我々の正規化方式は,グローバルモデルエントロピーとクライアントのラベル分布に基づいて,クライアントのトレーニングデータに適応的に適応的に適応する。
論文 参考訳(メタデータ) (2023-05-31T07:00:42Z) - Efficient Personalized Federated Learning via Sparse Model-Adaptation [47.088124462925684]
Federated Learning (FL)は、複数のクライアントに対して、独自のプライベートデータを共有せずに機械学習モデルをトレーニングすることを目的としている。
疎局所モデルを適応的かつ効率的に学習し,効率的なパーソナライズFLのためのpFedGateを提案する。
我々は,pFedGateが最先端手法よりも優れたグローバル精度,個人精度,効率性を同時に達成できることを示す。
論文 参考訳(メタデータ) (2023-05-04T12:21:34Z) - Local-Adaptive Face Recognition via Graph-based Meta-Clustering and
Regularized Adaptation [21.08555249703121]
局所適応顔認識(LaFR)と呼ばれる新しい問題設定を導入する。
LaFRは、ローカルに適応したモデルを自動かつ非監視にトレーニングすることで、最適なパフォーマンスを実現することを目指している。
更新された局所モデルに対して,単純なフェデレーションアグリゲーションにより,LaFRはグローバルモデルをさらに改善できることを示す。
論文 参考訳(メタデータ) (2022-03-27T15:20:14Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。