論文の概要: FOCUS: Dealing with Label Quality Disparity in Federated Learning
- arxiv url: http://arxiv.org/abs/2001.11359v1
- Date: Wed, 29 Jan 2020 09:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 20:54:08.922643
- Title: FOCUS: Dealing with Label Quality Disparity in Federated Learning
- Title(参考訳): 焦点:連合学習におけるラベル品質格差の扱い
- Authors: Yiqiang Chen, Xiaodong Yang, Xin Qin, Han Yu, Biao Chen, Zhiqi Shen
- Abstract要約: 本稿では, ユビキタスシステムのためのフェデレート・オポチュニティ・コンピューティング(FOCUS)を提案する。
FOCUSは直接観察することなくクライアントローカルデータの信頼性を定量化する。
ノイズの多いラベルでクライアントを効果的に識別し、モデルパフォーマンスへの影響を低減します。
- 参考スコア(独自算出の注目度): 25.650278226178298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ubiquitous systems with End-Edge-Cloud architecture are increasingly being
used in healthcare applications. Federated Learning (FL) is highly useful for
such applications, due to silo effect and privacy preserving. Existing FL
approaches generally do not account for disparities in the quality of local
data labels. However, the clients in ubiquitous systems tend to suffer from
label noise due to varying skill-levels, biases or malicious tampering of the
annotators. In this paper, we propose Federated Opportunistic Computing for
Ubiquitous Systems (FOCUS) to address this challenge. It maintains a small set
of benchmark samples on the FL server and quantifies the credibility of the
client local data without directly observing them by computing the mutual
cross-entropy between performance of the FL model on the local datasets and
that of the client local FL model on the benchmark dataset. Then, a credit
weighted orchestration is performed to adjust the weight assigned to clients in
the FL model based on their credibility values. FOCUS has been experimentally
evaluated on both synthetic data and real-world data. The results show that it
effectively identifies clients with noisy labels and reduces their impact on
the model performance, thereby significantly outperforming existing FL
approaches.
- Abstract(参考訳): エンドエッジクラウドアーキテクチャを備えたユビキタスシステムは、医療アプリケーションでますます利用されている。
フェデレーション学習(fl)はサイロ効果とプライバシ保護のため、このようなアプリケーションで非常に有用である。
既存のFLアプローチは、一般にローカルデータラベルの品質の相違を考慮しない。
しかし、ユビキタスシステムのクライアントは、アノテータの様々なスキルレベル、バイアス、悪意のある改ざんによってラベルノイズに悩まされる傾向がある。
本稿では,ユビキタスシステムのためのフェデレーションオポチュニティコンピューティング(FOCUS)を提案する。
それは、ローカルデータセット上のflモデルのパフォーマンスとベンチマークデータセット上のクライアントローカルflモデルのパフォーマンスの相互クロスエントロピーを計算することによって、直接観察することなく、flサーバ上で少数のベンチマークサンプルを保持し、クライアントローカルデータの信頼性を定量化する。
そして、信用重み付けオーケストレーションを行い、その信頼性値に基づいてFLモデルのクライアントに割り当てられた重みを調整する。
FOCUSは合成データと実世界のデータの両方で実験的に評価されている。
その結果, クライアントをノイズラベルで効果的に識別し, モデル性能への影響を低減し, 既存のFLアプローチを著しく上回ることがわかった。
関連論文リスト
- FLea: Addressing Data Scarcity and Label Skew in Federated Learning via Privacy-preserving Feature Augmentation [15.298650496155508]
フェデレートラーニング(FL)は、ローカルデータを中央サーバに転送することなく、多数のエッジデバイスに分散したデータを活用することによって、モデル開発を可能にする。
既存のFLメソッドは、デバイス間の不足やラベルスキュードデータを扱う際に問題に直面し、結果としてローカルモデルが過度に適合し、ドリフトする。
我々はFLeaと呼ばれる先駆的なフレームワークを提案し、以下のキーコンポーネントを取り入れた。
論文 参考訳(メタデータ) (2024-06-13T19:28:08Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Labeling Chaos to Learning Harmony: Federated Learning with Noisy Labels [3.4620497416430456]
Federated Learning(FL)は分散機械学習のパラダイムで、分散化されたプライベートデータセットからモデルを学ぶことができる。
FL訓練段階間でラベルノイズに対処するフレームワークであるFedLNを提案する。
各種の視覚・音声データセットに対する評価は,従来のラベルノイズレベル60%の手法に比べて平均22%改善したことを示す。
論文 参考訳(メタデータ) (2022-08-19T14:47:40Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Semi-Supervised Federated Learning with non-IID Data: Algorithm and
System Design [42.63120623012093]
フェデレートラーニング(FL)は、エッジデバイス(またはクライアント)がデータをローカルに保持し、同時に共有グローバルモデルをトレーニングすることを可能にする。
クライアントのローカルトレーニングデータの分布は、非独立に均等に分散されている(非IID)
本稿では、FLにおけるデータ可用性と非IIDの問題を解決することを目的とした、堅牢な半教師付きFLシステム設計を提案する。
論文 参考訳(メタデータ) (2021-10-26T03:41:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。