論文の概要: No Fear of Classifier Biases: Neural Collapse Inspired Federated
Learning with Synthetic and Fixed Classifier
- arxiv url: http://arxiv.org/abs/2303.10058v2
- Date: Mon, 28 Aug 2023 10:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 00:22:53.518920
- Title: No Fear of Classifier Biases: Neural Collapse Inspired Federated
Learning with Synthetic and Fixed Classifier
- Title(参考訳): 分類バイアスの恐れがない:合成・固定型分類器を用いたニューラルネットワークによるフェデレーション学習
- Authors: Zexi Li, Xinyi Shang, Rui He, Tao Lin, Chao Wu
- Abstract要約: 本稿では、FLの分類器バイアス問題に対して、学習中に合成・固定されたETF分類器を用いて解を提案する。
FLにおけるETF構造をよりよく適応するために,高一般化とパーソナライズの両方を実現するために,いくつかの効果的なモジュールを考案した。
本手法は,CIFAR-10,CIFAR-100,Tiny-ImageNet上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 10.491645205483051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data heterogeneity is an inherent challenge that hinders the performance of
federated learning (FL). Recent studies have identified the biased classifiers
of local models as the key bottleneck. Previous attempts have used classifier
calibration after FL training, but this approach falls short in improving the
poor feature representations caused by training-time classifier biases.
Resolving the classifier bias dilemma in FL requires a full understanding of
the mechanisms behind the classifier. Recent advances in neural collapse have
shown that the classifiers and feature prototypes under perfect training
scenarios collapse into an optimal structure called simplex equiangular tight
frame (ETF). Building on this neural collapse insight, we propose a solution to
the FL's classifier bias problem by utilizing a synthetic and fixed ETF
classifier during training. The optimal classifier structure enables all
clients to learn unified and optimal feature representations even under
extremely heterogeneous data. We devise several effective modules to better
adapt the ETF structure in FL, achieving both high generalization and
personalization. Extensive experiments demonstrate that our method achieves
state-of-the-art performances on CIFAR-10, CIFAR-100, and Tiny-ImageNet.
- Abstract(参考訳): データの多様性は、連合学習(fl)のパフォーマンスを妨げる固有の課題である。
近年の研究では、局所モデルのバイアス付き分類器が重要なボトルネックとなっている。
FLトレーニング後に分類器の校正を試みたが、訓練時分類器バイアスによる特徴表現の改善には不十分である。
FLにおける分類器バイアスジレンマを解くには、分類器の背後にあるメカニズムを完全に理解する必要がある。
近年の神経崩壊の進展により、完全な訓練シナリオの下での分類器と機能プロトタイプは、simplex equiangular tight frame (etf)と呼ばれる最適な構造に崩壊することが示されている。
この神経崩壊の洞察に基づいて, FLの分類器バイアス問題の解法を, 学習中に合成・固定されたETF分類器を用いて提案する。
最適な分類器構造により、すべてのクライアントは、非常に異質なデータの下でも、統一的で最適な特徴表現を学べる。
FLにおけるETF構造をよりよく適応するために,高一般化とパーソナライズの両方を実現するために,いくつかの効果的なモジュールを考案した。
本研究では,CIFAR-10,CIFAR-100,Tiny-ImageNet上での最先端の性能を示す実験を行った。
関連論文リスト
- FedDr+: Stabilizing Dot-regression with Global Feature Distillation for Federated Learning [27.782676760198697]
フェデレートラーニング(FL)は、効果的なグローバルモデル開発のための重要なフレームワークとして登場した。
FLの主な課題はクライアントのドリフトであり、データの不均一性は分散した知識の集約を妨げる。
我々は,ドット回帰損失を用いた局所モデルアライメントを実現するFedDr+という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-04T14:34:13Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Federated Learning on Heterogeneous and Long-Tailed Data via Classifier
Re-Training with Federated Features [24.679535905451758]
Federated Learning (FL)は、分散機械学習タスクのためのプライバシ保護ソリューションを提供する。
FLモデルの性能を著しく損なう難題の1つは、データ不均一性と長い尾分布の共起である。
We propose a novel privacy-serving FL method for heterogeneous and long-tailed data via Federated Re-training with Federated Features (CreFF)。
論文 参考訳(メタデータ) (2022-04-28T10:35:11Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。