論文の概要: Exploring Vacant Classes in Label-Skewed Federated Learning
- arxiv url: http://arxiv.org/abs/2401.02329v2
- Date: Mon, 19 Aug 2024 13:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 03:57:15.599980
- Title: Exploring Vacant Classes in Label-Skewed Federated Learning
- Title(参考訳): ラベルスキュード・フェデレーションラーニングにおけるバカント授業の探索
- Authors: Kuangpu Guo, Yuhe Ding, Jian Liang, Ran He, Zilei Wang, Tieniu Tan,
- Abstract要約: クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
- 参考スコア(独自算出の注目度): 113.65301899666645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label skews, characterized by disparities in local label distribution across clients, pose a significant challenge in federated learning. As minority classes suffer from worse accuracy due to overfitting on local imbalanced data, prior methods often incorporate class-balanced learning techniques during local training. Although these methods improve the mean accuracy across all classes, we observe that vacant classes-referring to categories absent from a client's data distribution-remain poorly recognized. Besides, there is still a gap in the accuracy of local models on minority classes compared to the global model. This paper introduces FedVLS, a novel approach to label-skewed federated learning that integrates both vacant-class distillation and logit suppression simultaneously. Specifically, vacant-class distillation leverages knowledge distillation during local training on each client to retain essential information related to vacant classes from the global model. Moreover, logit suppression directly penalizes network logits for non-label classes, effectively addressing misclassifications in minority classes that may be biased toward majority classes. Extensive experiments validate the efficacy of FedVLS, demonstrating superior performance compared to previous state-of-the-art (SOTA) methods across diverse datasets with varying degrees of label skews. Code is available in the supplementary material.
- Abstract(参考訳): クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
マイノリティクラスは、局所的な不均衡なデータに過度に適合するため、より正確な精度に苦しむため、従来の手法では、局所的な訓練中にクラスバランスの学習技術が組み込まれていることが多い。
これらの手法により,全てのクラスの平均精度が向上するが,クライアントのデータ分布から欠落したカテゴリに参照する空きクラスは認識されていない。
さらに、グローバルモデルと比較してマイノリティクラスの局所モデルの精度にはまだ差がある。
本稿では, ラベルスキュード・フェデレート学習における新しいアプローチであるFedVLSを紹介し, 空洞クラス蒸留とロジット抑制を同時に統合する。
具体的には、各クライアントでのローカルトレーニング中の知識蒸留を利用して、グローバルモデルから空クラスに関連する重要な情報を保持する。
さらに、ロジット抑制は、非ラベルクラスに対するネットワークロジットを直接罰し、多数派クラスに偏った少数派クラスの誤分類に効果的に対処する。
広範囲にわたる実験により、FedVLSの有効性が検証され、ラベルスキューの度合いの異なる様々なデータセットにわたる従来の最先端(SOTA)手法よりも優れた性能を示した。
コードは補足資料で入手できる。
関連論文リスト
- GeT: Generative Target Structure Debiasing for Domain Adaptation [67.17025068995835]
ドメイン適応(DA)は、ドメインシフトの下で、完全にラベル付けされたソースからほとんどラベル付けされていない、または完全にラベル付けされていないターゲットに知識を転送することを目的としています。
近年,擬似ラベリングを利用した半教師付き学習(SSL)技術がDAでますます普及している。
本稿では,高品質な擬似ラベルを用いた非バイアス対象埋め込み分布を学習するGeTを提案する。
論文 参考訳(メタデータ) (2023-08-20T08:52:43Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - Online Fairness-Aware Learning with Imbalanced Data Streams [9.481178205985396]
ストリーム上で有効かつ公平な分類を行うオンラインフェアネスアウェアアプローチとして,我々の提案する手法を提案する。
ウエーシスは オンライン・ブーピング・アプローチだ トレーニング・ディストリビューションを オンライン・スタイルで変更する ストリームのクラス不均衡を監視して
8つの実世界と1つの合成データセットの実験は、最先端の公正なストリームアプローチよりも、我々の手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-08-13T13:31:42Z) - Fair-Net: A Network Architecture For Reducing Performance Disparity
Between Identifiable Sub-Populations [0.522145960878624]
特定可能なサブ人口間での分類精度と確率校正の両方を改善するマルチタスクニューラルネットワークアーキテクチャであるFair-Netを導入する。
3つの実世界のベンチマークデータセットによる実証研究は、Fair-Netが分類と校正性能を改善することを示した。
論文 参考訳(メタデータ) (2021-06-01T18:26:08Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。