論文の概要: Federated Learning with Label Distribution Skew via Logits Calibration
- arxiv url: http://arxiv.org/abs/2209.00189v1
- Date: Thu, 1 Sep 2022 02:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:27:12.591139
- Title: Federated Learning with Label Distribution Skew via Logits Calibration
- Title(参考訳): ログ校正によるラベル分布スキューによるフェデレーション学習
- Authors: Jie Zhang, Zhiqi Li, Bo Li, Jianghe Xu, Shuang Wu, Shouhong Ding, Chao
Wu
- Abstract要約: 本稿では,FLにおけるラベル分布スキューについて検討する。
本稿では,各クラスの発生確率に応じて,ソフトマックスクロスエントロピー前のロジットを校正するFedLCを提案する。
フェデレーションデータセットと実世界のデータセットの実験は、FedLCがより正確なグローバルモデルをもたらすことを示す。
- 参考スコア(独自算出の注目度): 26.98248192651355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional federated optimization methods perform poorly with heterogeneous
data (ie, accuracy reduction), especially for highly skewed data. In this
paper, we investigate the label distribution skew in FL, where the distribution
of labels varies across clients. First, we investigate the label distribution
skew from a statistical view. We demonstrate both theoretically and empirically
that previous methods based on softmax cross-entropy are not suitable, which
can result in local models heavily overfitting to minority classes and missing
classes. Additionally, we theoretically introduce a deviation bound to measure
the deviation of the gradient after local update. At last, we propose FedLC
(\textbf {Fed} erated learning via\textbf {L} ogits\textbf {C} alibration),
which calibrates the logits before softmax cross-entropy according to the
probability of occurrence of each class. FedLC applies a fine-grained
calibrated cross-entropy loss to local update by adding a pairwise label
margin. Extensive experiments on federated datasets and real-world datasets
demonstrate that FedLC leads to a more accurate global model and much improved
performance. Furthermore, integrating other FL methods into our approach can
further enhance the performance of the global model.
- Abstract(参考訳): 従来のフェデレーション最適化手法は不均一なデータ(すなわち精度の低下)、特に高度に歪んだデータに対して不適切な処理を行う。
本稿では,クライアント間でラベルの分布が変化するflにおけるラベル分布スキューについて検討する。
まず,統計的視点からラベル分布スキューについて検討する。
我々は,従来のソフトマックスのクロスエントロピーに基づく手法が適切でないことを理論的および実証的に証明し,局所モデルがマイノリティクラスや欠落クラスに過度に適合することを示す。
さらに,局所更新後の勾配の偏差を測定するための偏差を理論的に導入する。
最後に,各クラスの発生確率に応じてソフトマックスクロスエントロピー前のロジットを結合するfeedlc (\textbf {fed} erated learning via\textbf {l} ogits\textbf {c} alibration)を提案する。
fedlcは、粒度調整されたクロスエントロピー損失を、ペアワイズラベルマージンを追加することでローカルアップデートに適用する。
フェデレーションデータセットと実世界のデータセットに関する大規模な実験は、FedLCがより正確なグローバルモデルをもたらし、パフォーマンスが大幅に向上したことを示している。
さらに,本手法に他のFL手法を組み込むことにより,グローバルモデルの性能をさらに向上させることができる。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Dirichlet-Based Prediction Calibration for Learning with Noisy Labels [40.78497779769083]
雑音ラベルによる学習はディープニューラルネットワーク(DNN)の一般化性能を著しく損なう
既存のアプローチでは、損失補正やサンプル選択手法によってこの問題に対処している。
そこで我々は,textitDirichlet-based Prediction (DPC) 法を解法として提案する。
論文 参考訳(メタデータ) (2024-01-13T12:33:04Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。