論文の概要: Fairness and Privacy in Federated Learning and Their Implications in
Healthcare
- arxiv url: http://arxiv.org/abs/2308.07805v1
- Date: Tue, 15 Aug 2023 14:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 12:19:51.813879
- Title: Fairness and Privacy in Federated Learning and Their Implications in
Healthcare
- Title(参考訳): 連合学習における公平性とプライバシーとその医療における意義
- Authors: Navya Annapareddy, Jade Preston, Judy Fox
- Abstract要約: 本稿では,研究におけるフェアフェデレーション学習の典型的なライフサイクルを概説するとともに,実装におけるフェアネスの現状を考慮に入れた最新の分類法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, many contexts exist where distributed learning is difficult or
otherwise constrained by security and communication limitations. One common
domain where this is a consideration is in Healthcare where data is often
governed by data-use-ordinances like HIPAA. On the other hand, larger sample
sizes and shared data models are necessary to allow models to better generalize
on account of the potential for more variability and balancing underrepresented
classes. Federated learning is a type of distributed learning model that allows
data to be trained in a decentralized manner. This, in turn, addresses data
security, privacy, and vulnerability considerations as data itself is not
shared across a given learning network nodes. Three main challenges to
federated learning include node data is not independent and identically
distributed (iid), clients requiring high levels of communication overhead
between peers, and there is the heterogeneity of different clients within a
network with respect to dataset bias and size. As the field has grown, the
notion of fairness in federated learning has also been introduced through novel
implementations. Fairness approaches differ from the standard form of federated
learning and also have distinct challenges and considerations for the
healthcare domain. This paper endeavors to outline the typical lifecycle of
fair federated learning in research as well as provide an updated taxonomy to
account for the current state of fairness in implementations. Lastly, this
paper provides added insight into the implications and challenges of
implementing and supporting fairness in federated learning in the healthcare
domain.
- Abstract(参考訳): 現在、分散学習が困難である、あるいはセキュリティや通信の制限によって制約される、多くのコンテキストが存在する。
これが考慮される一般的なドメインのひとつは、医療において、データがHIPAAのようなデータ利用規則によって管理されることが多い。
一方、より大きなサンプルサイズと共有データモデルが必要であり、モデルがより可変性があり、表現不足のクラスが分散する可能性を考慮してより一般化することができる。
フェデレーション学習(federated learning)は、データを分散的にトレーニング可能な、分散学習モデルの一種である。
これは、データセキュリティ、プライバシ、脆弱性の考慮事項に対処する。データ自体が学習ネットワークノード間で共有されないからだ。
フェデレーション学習の3つの大きな課題は、ノードデータは独立ではなく、同一分散(iid)であり、ピア間の高いレベルの通信オーバーヘッドを必要とするクライアントであり、データセットのバイアスとサイズに関してネットワーク内の異なるクライアントの多様性がある。
分野が成長するにつれて、フェデレートラーニングにおける公平性の概念も新しい実装によって導入されている。
公正なアプローチは、標準化された学習の標準形式と異なり、医療領域に対して異なる課題と考察を持っている。
本稿では,研究におけるフェアフェデレーション学習の典型的なライフサイクルを概説するとともに,実装におけるフェアネスの現況を考慮に入れた最新の分類法を提案する。
最後に,医療分野における連帯学習における公平性の実現と支援の意義と課題について考察を加えた。
関連論文リスト
- Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - FedDG: Federated Domain Generalization on Medical Image Segmentation via
Episodic Learning in Continuous Frequency Space [63.43592895652803]
フェデレーションラーニングは、分散医療機関がプライバシ保護を備えた共有予測モデルを共同で学習することを可能にします。
臨床展開では、連合学習で訓練されたモデルは、連邦外の完全に見えない病院に適用された場合、パフォーマンス低下に苦しむ可能性がある。
そこで本研究では,この問題に対してELCFS(Episodic Learning in Continuous frequency Space)と呼ばれる新しいアプローチを提案する。
本手法の有効性は,2つの医用画像分割作業における最先端および深部アブレーション実験よりも優れていた。
論文 参考訳(メタデータ) (2021-03-10T13:05:23Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。