論文の概要: No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices
- arxiv url: http://arxiv.org/abs/2202.08036v1
- Date: Wed, 16 Feb 2022 13:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 16:24:26.770669
- Title: No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices
- Title(参考訳): 誰も残っていない:異種デバイスによる包括的連合学習
- Authors: Ruixuan Liu, Fangzhao Wu, Chuhan Wu, Yanlin Wang, Lingjuan Lyu, Hong
Chen, Xing Xie
- Abstract要約: この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 79.16481453598266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an important paradigm for training global models
from decentralized data in a privacy-preserving way. Existing FL methods
usually assume the global model can be trained on any participating client.
However, in real applications, the devices of clients are usually
heterogeneous, and have different computing power. Although big models like
BERT have achieved huge success in AI, it is difficult to apply them to
heterogeneous FL with weak clients. The straightforward solutions like removing
the weak clients or using a small model to fit all clients will lead to some
problems, such as under-representation of dropped clients and inferior accuracy
due to data loss or limited model representation ability. In this work, we
propose InclusiveFL, a client-inclusive federated learning method to handle
this problem. The core idea of InclusiveFL is to assign models of different
sizes to clients with different computing capabilities, bigger models for
powerful clients and smaller ones for weak clients. We also propose an
effective method to share the knowledge among multiple local models with
different sizes. In this way, all the clients can participate in the model
learning in FL, and the final model can be big and powerful enough. Besides, we
propose a momentum knowledge distillation method to better transfer knowledge
in big models on powerful clients to the small models on weak clients.
Extensive experiments on many real-world benchmark datasets demonstrate the
effectiveness of the proposed method in learning accurate models from clients
with heterogeneous devices under the FL framework.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データからプライバシー保護方法でグローバルモデルをトレーニングするための重要なパラダイムである。
既存のflメソッドは通常、グローバルモデルが参加するクライアントでトレーニングできると仮定する。
しかし、実際のアプリケーションでは、クライアントのデバイスは通常異種であり、異なる計算能力を持つ。
BERTのような大きなモデルはAIで大きな成功を収めていますが、弱いクライアントを持つ異種FLに適用することは困難です。
弱いクライアントを削除したり、すべてのクライアントに適合させるために小さなモデルを使用したりするといった簡単なソリューションは、ドロップしたクライアントの表現不足やデータ損失や限定されたモデル表現能力による精度の低下といった問題を引き起こす。
本研究では,この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるコンピューティング能力を持つクライアント、強力なクライアントのためのより大きなモデル、弱いクライアントのための小さなモデルに異なるサイズのモデルを割り当てることである。
また,異なるサイズの複数の局所モデル間で知識を共有する効果的な手法を提案する。
このようにして、すべてのクライアントがflのモデル学習に参加し、最終的なモデルは十分に大きく、強力になります。
また,強力なクライアントの大規模モデルにおける知識を,弱いクライアントの小さなモデルに伝達する運動量知識蒸留法を提案する。
多くの実世界のベンチマークデータセットに対する大規模な実験は、FLフレームワークの下で不均一なデバイスを持つクライアントから正確なモデルを学ぶための提案手法の有効性を示す。
関連論文リスト
- Personalized Hierarchical Split Federated Learning in Wireless Networks [24.664469755746463]
本稿では、パーソナライズ性能の向上を目的とした、パーソナライズされた階層分割型フェデレーション学習(PHSFL)アルゴリズムを提案する。
まず、モデル分割と階層モデル集約がグローバルモデルに与える影響を理解するために、広範囲な理論的解析を行う。
グローバルモデルがトレーニングされると、各クライアントを微調整してパーソナライズされたモデルを取得します。
論文 参考訳(メタデータ) (2024-11-09T02:41:53Z) - Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedYolo: Augmenting Federated Learning with Pretrained Transformers [61.56476056444933]
本研究では,デバイス上での学習目標を達成するための事前学習型トランスフォーマー(PTF)について検討する。
大規模化により,代替手法間の精度ギャップが小さくなり,ロバスト性も向上することを示す。
最後に、クライアントは単一のPTFを使用して複数の無関係なタスクを同時に解決できる。
論文 参考訳(メタデータ) (2023-07-10T21:08:52Z) - Efficient Personalized Federated Learning via Sparse Model-Adaptation [47.088124462925684]
Federated Learning (FL)は、複数のクライアントに対して、独自のプライベートデータを共有せずに機械学習モデルをトレーニングすることを目的としている。
疎局所モデルを適応的かつ効率的に学習し,効率的なパーソナライズFLのためのpFedGateを提案する。
我々は,pFedGateが最先端手法よりも優れたグローバル精度,個人精度,効率性を同時に達成できることを示す。
論文 参考訳(メタデータ) (2023-05-04T12:21:34Z) - Closing the Gap between Client and Global Model Performance in
Heterogeneous Federated Learning [2.1044900734651626]
カスタムクライアントモデルをトレーニングするための選択されたアプローチが、グローバルモデルにどのように影響するかを示す。
KDとLwoF(LwoF)を併用して、改良されたパーソナライズドモデルを生成する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T11:12:57Z) - Federated Learning from Pre-Trained Models: A Contrastive Learning
Approach [43.893267526525904]
Federated Learning(FL)は、分散型クライアントがプライベートデータを共有せずに協調的に学習できる機械学習パラダイムである。
過剰な計算と通信要求は、現在のFLフレームワークに課題をもたらす。
本稿では、クライアントが複数の固定された事前学習モデルによって生成された表現を融合させることを共同で学習する軽量フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T03:16:57Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。