論文の概要: Fair Federated Medical Image Segmentation via Client Contribution
Estimation
- arxiv url: http://arxiv.org/abs/2303.16520v1
- Date: Wed, 29 Mar 2023 08:21:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 15:37:07.541250
- Title: Fair Federated Medical Image Segmentation via Client Contribution
Estimation
- Title(参考訳): クライアント貢献度推定によるフェアフェデレーション医用画像セグメンテーション
- Authors: Meirui Jiang, Holger R Roth, Wenqi Li, Dong Yang, Can Zhao, Vishwesh
Nath, Daguang Xu, Qi Dou, Ziyue Xu
- Abstract要約: フェデレーションラーニング(FL)におけるフェアネスの確保方法
近年の研究では、顧客への貢献と、顧客間のパフォーマンスの均一性を達成する方法に基づいて、顧客に報酬を与える方法が研究されている。
両種類の公平性を同時に最適化する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 24.148002258279632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to ensure fairness is an important topic in federated learning (FL).
Recent studies have investigated how to reward clients based on their
contribution (collaboration fairness), and how to achieve uniformity of
performance across clients (performance fairness). Despite achieving progress
on either one, we argue that it is critical to consider them together, in order
to engage and motivate more diverse clients joining FL to derive a high-quality
global model. In this work, we propose a novel method to optimize both types of
fairness simultaneously. Specifically, we propose to estimate client
contribution in gradient and data space. In gradient space, we monitor the
gradient direction differences of each client with respect to others. And in
data space, we measure the prediction error on client data using an auxiliary
model. Based on this contribution estimation, we propose a FL method, federated
training via contribution estimation (FedCE), i.e., using estimation as global
model aggregation weights. We have theoretically analyzed our method and
empirically evaluated it on two real-world medical datasets. The effectiveness
of our approach has been validated with significant performance improvements,
better collaboration fairness, better performance fairness, and comprehensive
analytical studies.
- Abstract(参考訳): 公平性を保証する方法は、連合学習(fl)において重要なトピックである。
近年の研究では、顧客への貢献(コラボレーションフェアネス)と、顧客間のパフォーマンスの均一性(パフォーマンスフェアネス)を両立させる方法について研究されている。
どちらも進歩しているにもかかわらず、より多様なクライアントをFLに参加させ、モチベーションを高め、高品質なグローバルモデルを生み出すためには、これらを一緒に考えることが重要であると我々は主張する。
本研究では,両種類の公平性を同時に最適化する新しい手法を提案する。
具体的には,勾配とデータ空間におけるクライアント貢献度を推定する。
勾配空間では、各クライアントの他のクライアントに対する勾配方向の差をモニターする。
そして、データ空間において、補助モデルを用いてクライアントデータの予測誤差を測定する。
本研究では,この貢献度推定に基づいて,グローバルモデル集約重みとして推定を用いた貢献度推定(fedce)によるフェデレーショントレーニングを提案する。
本手法を理論的に解析し,実世界の2つの医療データを用いて実証的に評価した。
提案手法の有効性は,大幅な性能向上,コラボレーションフェアネスの向上,パフォーマンスフェアネスの向上,総合的な分析研究などで検証されている。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - A Coalition Formation Game Approach for Personalized Federated Learning [12.784305390534888]
我々は,新しいパーソナライズされたアルゴリズム,pFedSVを提案し,各クライアントの最適なコラボレータ連携を識別し,SVに基づいてパーソナライズされたモデルアグリゲーションを実行する。
その結果、pFedSVは最先端のベンチマークと比較すると、各クライアントのパーソナライズ精度が優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-05T07:16:44Z) - WAFFLE: Weighted Averaging for Personalized Federated Learning [38.241216472571786]
WAFFLEは、SCAFFOLDに基づくパーソナライズされた協調機械学習アルゴリズムである。
WAFFLEは、クライアントのアップデート間のユークリッド距離を使用して、個々のコントリビューションを計測する。
本実験では, WAFFLE の有効性を他の方法と比較した。
論文 参考訳(メタデータ) (2021-10-13T18:40:54Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。