論文の概要: Federated Learning with Bilateral Curation for Partially Class-Disjoint Data
- arxiv url: http://arxiv.org/abs/2405.18972v1
- Date: Wed, 29 May 2024 10:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 17:39:58.542107
- Title: Federated Learning with Bilateral Curation for Partially Class-Disjoint Data
- Title(参考訳): 部分的クラス分割データに対する両側キュレーションによるフェデレーション学習
- Authors: Ziqing Fan, Ruipeng Zhang, Jiangchao Yao, Bo Han, Ya Zhang, Yanfeng Wang,
- Abstract要約: 部分的なクラス分離データ(PCDD)は、一般的なが未探索のデータ生成であり、フェデレートされたアルゴリズムの性能に深刻な挑戦をする。
我々はFedGELAと呼ばれる新しい手法を提案し、ETFは局所的に個人分布に適応しながら、単純なETFとしてグローバルに固定されている。
我々は、FedGELAが有望なパフォーマンスを達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
- 参考スコア(独自算出の注目度): 47.55180390473258
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Partially class-disjoint data (PCDD), a common yet under-explored data formation where each client contributes a part of classes (instead of all classes) of samples, severely challenges the performance of federated algorithms. Without full classes, the local objective will contradict the global objective, yielding the angle collapse problem for locally missing classes and the space waste problem for locally existing classes. As far as we know, none of the existing methods can intrinsically mitigate PCDD challenges to achieve holistic improvement in the bilateral views (both global view and local view) of federated learning. To address this dilemma, we are inspired by the strong generalization of simplex Equiangular Tight Frame~(ETF) on the imbalanced data, and propose a novel approach called FedGELA where the classifier is globally fixed as a simplex ETF while locally adapted to the personal distributions. Globally, FedGELA provides fair and equal discrimination for all classes and avoids inaccurate updates of the classifier, while locally it utilizes the space of locally missing classes for locally existing classes. We conduct extensive experiments on a range of datasets to demonstrate that our FedGELA achieves promising performance~(averaged improvement of 3.9% to FedAvg and 1.5% to best baselines) and provide both local and global convergence guarantees. Source code is available at:https://github.com/MediaBrain-SJTU/FedGELA.git.
- Abstract(参考訳): 部分的なクラス分離データ(PCDD)は、各クライアントが(すべてのクラスの代わりに)クラスの一部をコントリビュートし、フェデレートされたアルゴリズムの性能に重大な挑戦をする一般的なデータ構成である。
全クラスがなければ、局所的な目的はグローバルな目的と矛盾し、局所的な欠落クラスに対する角度崩壊問題と局所的な既存クラスに対する空間廃棄物問題をもたらす。
私たちが知る限り、既存の手法は、国際的視点と地域的視点の両方において、PCDDの総合的な改善を達成するために、本質的にPCDDの課題を緩和することはできません。
このジレンマに対処するため、不均衡なデータ上での単純等角的タイトフレーム~(ETF)の強い一般化に着想を得て、FedGELAと呼ばれる新しい手法を提案する。
グローバルに、FedGELAはすべてのクラスに対して公平で平等な差別を提供し、クラス化子の不正確な更新を避ける一方で、ローカルに欠落しているクラスをローカルに既存のクラスに利用している。
我々は、FedGELAが有望なパフォーマンス(FedAvgが3.9%改善、ベストベースラインが1.5%改善)を達成することを実証するために、さまざまなデータセットに関する広範な実験を行い、ローカルおよびグローバルコンバージェンス保証を提供する。
ソースコードはhttps://github.com/MediaBrain-SJTU/FedGELA.gitで公開されている。
関連論文リスト
- Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Unbiased Training in Federated Open-world Semi-supervised
Learning [15.08153616709326]
本稿では,分散およびオープンな環境における重要な課題を解決するための,新しいフェデレートオープンワールドセミスーパーバイドラーニング(FedoSSL)フレームワークを提案する。
我々は,不確実性に留意された損失を抑えることで,局所的に見えないクラスとグローバルな見えないクラスの間のバイアスのあるトレーニングを緩和する。
提案したFedoSSLは、ベンチマークや実世界のデータセットに関する広範な実験を通じて検証される、最先端のFLメソッドに容易に適用することができる。
論文 参考訳(メタデータ) (2023-05-01T11:12:37Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Preservation of the Global Knowledge by Not-True Self Knowledge
Distillation in Federated Learning [8.474470736998136]
フェデレートラーニング(FL)では、強力なグローバルモデルが、クライアントのローカルにトレーニングされたモデルを集約することによって、協調的に学習される。
偏りのある地域分布への適応は、その特徴をグローバルな分布にシフトさせ、グローバルな知識を忘れる結果をもたらすことを観察する。
本稿では, ローカルデータに対するグローバルな知識を活用した, 簡便かつ効果的なフェデレートローカル自己蒸留(FedLSD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T11:51:47Z) - Robustness and Personalization in Federated Learning: A Unified Approach
via Regularization [4.7234844467506605]
我々は、Fed+と呼ばれる堅牢でパーソナライズされたフェデレーション学習のための一連の方法を提案する。
Fed+の主な利点は、フェデレートトレーニングで見られる現実世界の特徴をよりよく適応することである。
ベンチマークデータセットに関する広範な実験を通じて、Fed+の利点を実証する。
論文 参考訳(メタデータ) (2020-09-14T10:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。