論文の概要: FedConceptEM: Robust Federated Learning Under Diverse Distribution
Shifts
- arxiv url: http://arxiv.org/abs/2301.12379v1
- Date: Sun, 29 Jan 2023 06:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:25:18.023569
- Title: FedConceptEM: Robust Federated Learning Under Diverse Distribution
Shifts
- Title(参考訳): FedConceptEM: 分散シフトによるロバストなフェデレーション学習
- Authors: Yongxin Guo, Xiaoying Tang, Tao Lin
- Abstract要約: Federated Learning(FL)は、クライアントデータをエッジデバイスに保持することで、プライバシを保護する機械学習パラダイムである。
最近の研究は、分布シフトを伴うFLの最適化を改善することを目的としているが、複数種類の分布シフトが同時に発生する場合、FLモデルをトレーニングする方法は未解決の問題である。
本稿では,FLにおける多様な分布シフトを扱うための新しいアルゴリズムフレームワークであるFedConceptEMを提案する。
- 参考スコア(独自算出の注目度): 5.757705591791482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a machine learning paradigm that protects privacy
by keeping client data on edge devices. However, optimizing FL in practice can
be challenging due to the diversity and heterogeneity of the learning system.
Recent research efforts have aimed to improve the optimization of FL with
distribution shifts, but it is still an open problem how to train FL models
when multiple types of distribution shifts, i.e., feature distribution skew,
label distribution skew, and concept shift occur simultaneously. To address
this challenge, we propose a novel algorithm framework, FedConceptEM, for
handling diverse distribution shifts in FL. FedConceptEM automatically assigns
clients with concept shifts to different models, avoiding the performance drop
caused by these shifts. At the same time, clients without concept shifts, even
with feature or label skew, are assigned to the same model, improving the
robustness of the trained models. Extensive experiments demonstrate that
FedConceptEM outperforms other state-of-the-art cluster-based FL methods by a
significant margin.
- Abstract(参考訳): Federated Learning(FL)は、クライアントデータをエッジデバイスに保持することでプライバシを保護する機械学習パラダイムである。
しかし,学習システムの多様性や多様性から,実際にflを最適化することは困難である。
最近の研究は、分布シフトを伴うFLの最適化の改善を目的としているが、複数種類の分布シフト、すなわち、特徴分布スキュー、ラベル分布スキュー、概念シフトを同時に行う場合、FLモデルをトレーニングする方法は未解決の問題である。
この課題に対処するために,FLにおける多様な分布シフトを扱うための新しいアルゴリズムフレームワークであるFedConceptEMを提案する。
fedconceptemは、コンセプトシフトを異なるモデルに自動的に割り当て、これらのシフトによるパフォーマンス低下を回避する。
同時に、機能やラベルのスキューであっても、コンセプトシフトのないクライアントが同じモデルに割り当てられ、トレーニングされたモデルの堅牢性が改善される。
大規模な実験により、FedConceptEMは他の最先端のクラスタベースのFL法よりも大きなマージンで優れていることが示された。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - FedPref: Federated Learning Across Heterogeneous Multi-objective Preferences [2.519319150166215]
Federated Learning(FL)は、トレーニングデータが分散デバイスによって所有され、共有できない設定のために開発された分散機械学習戦略である。
FLの現実的な設定への応用は、参加者間の不均一性に関連する新たな課題をもたらします。
この設定でパーソナライズされたFLを促進するために設計された最初のアルゴリズムであるFedPrefを提案する。
論文 参考訳(メタデータ) (2025-01-23T12:12:59Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Find Your Optimal Assignments On-the-fly: A Holistic Framework for
Clustered Federated Learning [5.045379017315639]
Federated Learning(FL)は、エッジデバイスにデータを格納することでクライアントのプライバシを保護する、新興の分散機械学習アプローチである。
近年の研究では、異なるクラスタに分散シフトしたクライアントをグループ化することで、FLにおけるクライアントの不均一性に取り組むためのソリューションとしてクラスタリングが提案されている。
本稿では,現在のクラスタリングFL手法を包括的に検討し,既存のアプローチを包括・拡張するための4層フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T04:23:11Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Robust Federated Learning: The Case of Affine Distribution Shifts [41.27887358989414]
我々は,ユーザのサンプルの分布変化に対して良好な性能を実現するための,堅牢なフェデレーション学習アルゴリズムを開発した。
新しいテストユーザにおいて,アフィン分布シフトは学習者分類器の性能を著しく低下させるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-06-16T03:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。