論文の概要: FedCova: Robust Federated Covariance Learning Against Noisy Labels
- arxiv url: http://arxiv.org/abs/2603.04062v1
- Date: Wed, 04 Mar 2026 13:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.32372
- Title: FedCova: Robust Federated Covariance Learning Against Noisy Labels
- Title(参考訳): FedCova: ノイズラベルに対するロバストなフェデレーション共分散学習
- Authors: Xiangyu Zhong, Xiaojun Yuan, Ying-Jun Angela Zhang,
- Abstract要約: 分散データセットにおけるノイズラベルは、高度に局所的なオーバーフィッティングを誘発し、フェデレートラーニング(FL)におけるグローバルモデルを損なう
既存のソリューションのほとんどは、モデル自体に堅牢性を持たせるのではなく、クリーンデバイスやパブリックデータセットとの整合性に依存しています。
FedCovaはデータを差別的だが弾力性のある空間にエンコードしてラベルノイズを許容する。
我々は、不均一なデータ分布の下で、対称および非対称ノイズ設定の両方にFedCovaを実装した。
- 参考スコア(独自算出の注目度): 43.148009645442926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy labels in distributed datasets induce severe local overfitting and consequently compromise the global model in federated learning (FL). Most existing solutions rely on selecting clean devices or aligning with public clean datasets, rather than endowing the model itself with robustness. In this paper, we propose FedCova, a dependency-free federated covariance learning framework that eliminates such external reliances by enhancing the model's intrinsic robustness via a new perspective on feature covariances. Specifically, FedCova encodes data into a discriminative but resilient feature space to tolerate label noise. Built on mutual information maximization, we design a novel objective for federated lossy feature encoding that relies solely on class feature covariances with an error tolerance term. Leveraging feature subspaces characterized by covariances, we construct a subspace-augmented federated classifier. FedCova unifies three key processes through the covariance: (1) training the network for feature encoding, (2) constructing a classifier directly from the learned features, and (3) correcting noisy labels based on feature subspaces. We implement FedCova across both symmetric and asymmetric noisy settings under heterogeneous data distribution. Experimental results on CIFAR-10/100 and real-world noisy dataset Clothing1M demonstrate the superior robustness of FedCova compared with the state-of-the-art methods.
- Abstract(参考訳): 分散データセットのノイズラベルは、高度に局所的なオーバーフィッティングを引き起こし、結果としてフェデレートラーニング(FL)のグローバルモデルに悪影響を及ぼす。
既存のソリューションのほとんどは、モデル自体に堅牢性を持たせるのではなく、クリーンデバイスの選択や、パブリックなクリーンデータセットとの整合性に依存しています。
本稿では,依存性のないフェデレーション付き共分散学習フレームワークであるFedCovaを提案する。
具体的には、FedCovaはラベルノイズを許容するために、データを差別的だがレジリエントな特徴空間にエンコードする。
相互情報の最大化に基づいて,クラス特徴共分散にのみ依存するフェデレーション・ロスィ特徴符号化の新たな目的を設計する。
共分散を特徴とする特徴部分空間を活用することで、部分空間拡張型フェデレーション分類器を構築する。
FedCovaは、(1)特徴符号化のためのネットワークのトレーニング、(2)学習した特徴から直接分類器を構築すること、(3)特徴部分空間に基づいてノイズラベルを修正すること、の3つの主要なプロセスを統合する。
我々は、不均一なデータ分布の下で、対称および非対称ノイズ設定の両方にFedCovaを実装した。
CIFAR-10/100および実世界のノイズデータセットClothing1Mの実験結果は、最先端の手法と比較してFedCovaの優れた堅牢性を示している。
関連論文リスト
- Neural Collapse-Inspired Multi-Label Federated Learning under Label-Distribution Skew [13.59179877525954]
フェデレートラーニング(FL)は、分散クライアント間の協調モデルトレーニングを可能にする。
多くの実世界のアプリケーション、特に医用画像のような領域では、しばしばマルチラベル設定を含む。
本稿では,クライアント間で特徴分布を整列させ,高品質でクラスタ化された表現を学習する手法を提案する。
論文 参考訳(メタデータ) (2025-09-16T00:53:11Z) - Accelerating Heterogeneous Federated Learning with Closed-form Classifiers [23.133964735844007]
フェデレートラーニング(FL)手法は、しばしば非常に統計的に異質な設定で苦労する。
Fed3R(Federated Recursive Ridge Regression)を紹介する。
Fed3Rは統計的不均一性に免疫を持ち、クライアントのサンプリング順序に不変である。
論文 参考訳(メタデータ) (2024-06-03T08:52:06Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - FedAnchor: Enhancing Federated Semi-Supervised Learning with Label
Contrastive Loss for Unlabeled Clients [19.3885479917635]
Federated Learning(FL)は、デバイス間で共有されたグローバルモデルの協調トレーニングを促進する分散学習パラダイムである。
本稿では,サーバ上のラベル付きアンカーデータにのみ訓練された分類ヘッドと組み合わせて,アンカーヘッドと呼ばれるユニークな二重ヘッド構造を導入する,革新的なFSSL手法であるFedAnchorを提案する。
提案手法は, 高信頼度モデル予測サンプルに基づいて, 疑似ラベル技術に係わる検証バイアスと過度に適合する問題を緩和する。
論文 参考訳(メタデータ) (2024-02-15T18:48:21Z) - Federated Learning with Instance-Dependent Noisy Label [6.093214616626228]
FedBeatはIDN遷移行列(IDNTM)を用いたグローバルな統計的一貫した分類器の構築を目指している
CIFAR-10 と SVHN で行った実験により,提案手法が最先端手法を著しく上回っていることを確認した。
論文 参考訳(メタデータ) (2023-12-16T05:08:02Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - FedFA: Federated Learning with Feature Anchors to Align Features and
Classifiers for Heterogeneous Data [8.677832361022809]
フェデレーション学習は、複数のクライアントがデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
一般的な解決策は、局所訓練中に体重のばらつきや特徴の不整合を規則化する補助的な損失を含む。
我々はFederated Learning with Feature Anchors (FedFA)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-17T02:27:44Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。