論文の概要: Robust Federated Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2012.01700v1
- Date: Thu, 3 Dec 2020 04:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:08:01.444051
- Title: Robust Federated Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いたロバスト連合学習
- Authors: Seunghan Yang, Hyoungseob Park, Junyoung Byun, Changick Kim
- Abstract要約: フェデレートラーニング(Federated Learning)は、ローカルデバイスがデータの分散とプライベートを維持しながら、サーバモデルを共同でトレーニングすることを可能にするパラダイムである。
フェデレートラーニングでは、ローカルデータがクライアントによって収集されるため、データが正しくアノテートされることはほとんど保証されない。
本稿では,サーバが局所モデルと協調して一貫した決定境界を維持する手法を提案する。
- 参考スコア(独自算出の注目度): 21.09831315814621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a paradigm that enables local devices to jointly train
a server model while keeping the data decentralized and private. In federated
learning, since local data are collected by clients, it is hardly guaranteed
that the data are correctly annotated. Although a lot of studies have been
conducted to train the networks robust to these noisy data in a centralized
setting, these algorithms still suffer from noisy labels in federated learning.
Compared to the centralized setting, clients' data can have different noise
distributions due to variations in their labeling systems or background
knowledge of users. As a result, local models form inconsistent decision
boundaries and their weights severely diverge from each other, which are
serious problems in federated learning. To solve these problems, we introduce a
novel federated learning scheme that the server cooperates with local models to
maintain consistent decision boundaries by interchanging class-wise centroids.
These centroids are central features of local data on each device, which are
aligned by the server every communication round. Updating local models with the
aligned centroids helps to form consistent decision boundaries among local
models, although the noise distributions in clients' data are different from
each other. To improve local model performance, we introduce a novel approach
to select confident samples that are used for updating the model with given
labels. Furthermore, we propose a global-guided pseudo-labeling method to
update labels of unconfident samples by exploiting the global model. Our
experimental results on the noisy CIFAR-10 dataset and the Clothing1M dataset
show that our approach is noticeably effective in federated learning with noisy
labels.
- Abstract(参考訳): フェデレーション学習(federated learning)は、データ分散とプライベートを維持しながら、ローカルデバイスが共同でサーバモデルをトレーニングできるパラダイムである。
フェデレーション学習では、ローカルデータはクライアントによって収集されるため、データが正しくアノテートされることは保証されない。
これらのノイズデータに頑健なネットワークを集中的にトレーニングするために多くの研究が行われてきたが、これらのアルゴリズムはいまだに連合学習のノイズラベルに苦しんでいる。
集中的な設定と比較して、クライアントのデータはラベルシステムの変化やユーザのバックグラウンド知識によって異なるノイズ分布を持つことができる。
その結果、局所モデルは一貫性のない決定境界を形成し、それらの重みは互いに激しく分岐し、連合学習において深刻な問題となる。
これらの問題を解決するために,サーバがローカルモデルと協調して一貫した決定境界を維持するための,クラスワイドセントロイドの相互交換による新しいフェデレート学習手法を提案する。
これらのcentroidは、各デバイス上のローカルデータの中心的な機能であり、通信ラウンド毎にサーバにアライメントされる。
アライメントされたcentroidsでローカルモデルを更新することは、クライアントのデータ内のノイズ分布が互いに異なるにもかかわらず、ローカルモデル間で一貫した決定境界を形成するのに役立つ。
局所モデルの性能を向上させるために,ラベル付きモデル更新に使用される自信あるサンプルを選択する新しい手法を提案する。
さらに,グローバルモデルを活用し,信頼できないサンプルのラベルを更新できるグローバルガイド付き擬似ラベル法を提案する。
CIFAR-10データセットとClothing1Mデータセットによる実験結果から,本手法は雑音ラベルを用いたフェデレーション学習において顕著に有効であることが示された。
関連論文リスト
- Collaboratively Learning Federated Models from Noisy Decentralized Data [21.3209961590772]
フェデレーテッド・ラーニング(FL)は、エッジデバイスからのローカルデータを使用して機械学習モデルを協調訓練するための重要な方法として登場した。
本稿では,ラベルノイズと比較して探索されていない領域である入力空間におけるノイズデータの問題に焦点をあてる。
本稿では,FedNS (Federated Noise-Sifting) という雑音を考慮したFLアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T18:00:51Z) - Federated Clustering: An Unsupervised Cluster-Wise Training for Decentralized Data Distributions [1.6385815610837167]
Federated Cluster-Wise Refinement(FedCRef)には、同様のデータ分散を備えたクラスタ上でモデルを協調的にトレーニングするクライアントが含まれている。
これらのグループでは、クライアントは、各データ分布を表す共有モデルを共同でトレーニングし、データの関連性を高めるために、ローカルクラスタを継続的に精錬する。
この反復的処理により,ネットワーク全体にわたる潜在的なデータ分布を同定し,それぞれにロバストな表現モデルを構築することができる。
論文 参考訳(メタデータ) (2024-08-20T09:05:44Z) - Proximity-based Self-Federated Learning [1.0066310107046081]
本稿では,近接型自己フェデレーション学習という,新しい完全分散型フェデレーション学習戦略を提案する。
従来のアルゴリズムとは異なり、我々の手法は、地理的近接とモデル精度に基づいて、クライアントが近隣ノードとモデルを共有し、調整することを奨励する。
論文 参考訳(メタデータ) (2024-07-17T08:44:45Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - FedNoiL: A Simple Two-Level Sampling Method for Federated Learning with
Noisy Labels [49.47228898303909]
フェデレートラーニング(FL)は、トレーニングデータが収集され、ローカルデバイスに配置されている間、サーバ側のグローバルモデルをトレーニングすることを目的としている。
ノイズラベルの局所的なトレーニングは、集約を通じてグローバルモデルに破壊的な破壊的な、ノイズラベルへの過度な適合をもたらす可能性がある。
サーバ上でよりロバストなグローバルアグリゲーションを実現するため,クライアントを選択するための単純な2レベルサンプリング手法「FedNoiL」を開発した。
論文 参考訳(メタデータ) (2022-05-20T12:06:39Z) - Decentralized federated learning of deep neural networks on non-iid data [0.6335848702857039]
分散環境でパーソナライズされたディープラーニングモデルを学ぶことの難しさに対処する。
本稿では,PENS(Performance-Based Neighbor Selection)という手法を提案する。
PENSは強力なベースラインに比べて高い精度を達成することができる。
論文 参考訳(メタデータ) (2021-07-18T19:05:44Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。