論文の概要: An Experimental Study of Class Imbalance in Federated Learning
- arxiv url: http://arxiv.org/abs/2109.04094v1
- Date: Thu, 9 Sep 2021 08:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:09:19.148508
- Title: An Experimental Study of Class Imbalance in Federated Learning
- Title(参考訳): フェデレーション学習におけるクラス不均衡に関する実験的研究
- Authors: C. Xiao, S. Wang
- Abstract要約: 本稿では,クラス不均衡度(MID)と,クライアント間のクラス不均衡度(WCS)の局所的差という,クラス不均衡度を定義するための2つの新しい指標を提案する。
以上の結果から,MIDが向上し,WCSが大きくなると,グローバルモデルの性能が低下することが示唆された。
- 参考スコア(独自算出の注目度): 0.8122270502556371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a distributed machine learning paradigm that trains a
global model for prediction based on a number of local models at clients while
local data privacy is preserved. Class imbalance is believed to be one of the
factors that degrades the global model performance. However, there has been
very little research on if and how class imbalance can affect the global
performance. class imbalance in federated learning is much more complex than
that in traditional non-distributed machine learning, due to different class
imbalance situations at local clients. Class imbalance needs to be re-defined
in distributed learning environments. In this paper, first, we propose two new
metrics to define class imbalance -- the global class imbalance degree (MID)
and the local difference of class imbalance among clients (WCS). Then, we
conduct extensive experiments to analyze the impact of class imbalance on the
global performance in various scenarios based on our definition. Our results
show that a higher MID and a larger WCS degrade more the performance of the
global model. Besides, WCS is shown to slow down the convergence of the global
model by misdirecting the optimization.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、クライアントのローカルモデルに基づいて予測のためのグローバルモデルをトレーニングし、ローカルデータのプライバシを保存する分散機械学習パラダイムである。
クラス不均衡は、グローバルモデルのパフォーマンスを低下させる要因の1つと考えられている。
しかし、クラス不均衡が世界的なパフォーマンスに与える影響についてはほとんど研究されていない。
フェデレーション学習におけるクラス不均衡は、ローカルクライアントでのクラス不均衡の状況が異なるため、従来の非分散機械学習よりもずっと複雑である。
クラス不均衡は分散学習環境で再定義する必要がある。
本稿では,まず,グローバルクラス不均衡度 (mid) とクライアント間のクラス不均衡の局所差 (wcs) という,クラス不均衡を定義するための2つの新しい指標を提案する。
そこで我々は,クラス不均衡が様々なシナリオにおけるグローバルパフォーマンスに与える影響を,定義に基づいて分析する。
その結果,MIDが向上し,WCSが大きくなると,グローバルモデルの性能が低下することがわかった。
さらに、WCSは最適化を間違えることで、グローバルモデルの収束を遅くすることを示した。
関連論文リスト
- Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Federated Learning with Classifier Shift for Class Imbalance [6.097542448692326]
フェデレートラーニングは、トレーニングデータが異なるクライアントに属している間、グローバルモデルを協調的に学習することを目的としており、交換は許されない。
本稿では,クラス不均衡の負の影響を軽減するため,局所学習期間中の分類器出力の変化を緩和するFedShiftという,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-04-11T04:38:39Z) - Addressing Class Variable Imbalance in Federated Semi-supervised
Learning [10.542178602467885]
我々は,クラス変数の不均衡を解決するために,FCVI(Federated Semi-supervised Learning for Class Variable Im Balance)を提案する。
FCVIは、クラス数の変化によるデータの不均衡を軽減するために使用される。
クライアントのプライバシを維持しながら,ベースライン方式よりもはるかに優れた手法であることが実証された。
論文 参考訳(メタデータ) (2023-03-21T12:50:17Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Federated Class-Incremental Learning [32.676616274338734]
フェデレートラーニング(FL)は、分散クライアント上でのデータプライベートなコラボレーティブトレーニングを通じて注目を集めている。
ほとんどの既存のメソッドは、フレームワーク全体のオブジェクトクラスが時間とともに固定されていると非現実的に仮定します。
我々は,グローバルクラスインクリメンタルモデルを学ぶために,Global-Local Forgetting Compensation (GLFC) モデルを開発した。
論文 参考訳(メタデータ) (2022-03-22T05:58:44Z) - CoSSL: Co-Learning of Representation and Classifier for Imbalanced
Semi-Supervised Learning [98.89092930354273]
本稿では,非バランスなSSLのための非結合表現学習と分類器学習を用いた新しいコラーニングフレームワーク(CoSSL)を提案する。
データ不均衡に対処するため、分類器学習のためのTFE(Tail-class Feature Enhancement)を考案した。
実験により,本手法は様々な分散分布において,他の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-12-08T20:13:13Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。