論文の概要: FairFedMed: Benchmarking Group Fairness in Federated Medical Imaging with FairLoRA
- arxiv url: http://arxiv.org/abs/2508.00873v1
- Date: Mon, 21 Jul 2025 22:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.282444
- Title: FairFedMed: Benchmarking Group Fairness in Federated Medical Imaging with FairLoRA
- Title(参考訳): FairFedMed:FairLoRAを用いたFederated Medical Imagingにおけるベンチマークグループフェアネス
- Authors: Minghan Li, Congcong Wen, Yu Tian, Min Shi, Yan Luo, Hao Huang, Yi Fang, Mengyu Wang,
- Abstract要約: FairFedMedは、グループフェアネス(人口統計学)を研究するために特別に設計された、最初の医療用FLデータセットである。
本稿では,SVDに基づく低ランク近似に基づくフェアネス対応FLフレームワークであるFairLoRAを提案する。
- 参考スコア(独自算出の注目度): 31.97548322760354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness remains a critical concern in healthcare, where unequal access to services and treatment outcomes can adversely affect patient health. While Federated Learning (FL) presents a collaborative and privacy-preserving approach to model training, ensuring fairness is challenging due to heterogeneous data across institutions, and current research primarily addresses non-medical applications. To fill this gap, we establish the first experimental benchmark for fairness in medical FL, evaluating six representative FL methods across diverse demographic attributes and imaging modalities. We introduce FairFedMed, the first medical FL dataset specifically designed to study group fairness (i.e., demographics). It comprises two parts: FairFedMed-Oph, featuring 2D fundus and 3D OCT ophthalmology samples with six demographic attributes; and FairFedMed-Chest, which simulates real cross-institutional FL using subsets of CheXpert and MIMIC-CXR. Together, they support both simulated and real-world FL across diverse medical modalities and demographic groups. Existing FL models often underperform on medical images and overlook fairness across demographic groups. To address this, we propose FairLoRA, a fairness-aware FL framework based on SVD-based low-rank approximation. It customizes singular value matrices per demographic group while sharing singular vectors, ensuring both fairness and efficiency. Experimental results on the FairFedMed dataset demonstrate that FairLoRA not only achieves state-of-the-art performance in medical image classification but also significantly improves fairness across diverse populations. Our code and dataset can be accessible via link: https://wang.hms.harvard.edu/fairfedmed/.
- Abstract(参考訳): 公平性は医療において重要な関心事であり、サービスへのアクセスと治療結果の不平等が患者の健康に悪影響を及ぼす可能性がある。
フェデレートラーニング(FL)は、モデルトレーニングに対する協調的かつプライバシ保護のアプローチを提供する一方で、機関間の異種データによる公正性の確保は困難である。
このギャップを埋めるために、医療用FLの公平性に関する最初の実験的なベンチマークを確立し、様々な人口特性と画像のモダリティの6つの代表的FL手法を評価した。
FairFedMedは、グループフェアネス(人口統計学)を研究するために特別に設計された、最初の医療用FLデータセットである。
FairFedMed-Ophは、2Dファウンダスと3D OCTの眼科のサンプルを6つの統計属性で特徴付けており、FairFedMed-ChestはCheXpertとMIMIC-CXRのサブセットを使って実際の施設間FLをシミュレートしている。
同時に、様々な医学的モダリティや人口統計学的グループにまたがって、シミュレーションと現実世界のFLの両方をサポートします。
既存のFLモデルは、しばしば医療画像に過小評価され、人口統計群全体にわたって見過ごされがちである。
そこで本研究では,SVDに基づく低ランク近似に基づくフェアネス対応FLフレームワークであるFairLoRAを提案する。
個体群ごとに特異値行列をカスタマイズし、特異ベクトルを共有し、公平性と効率性を確保する。
FairFedMedデータセットの実験結果から、FairLoRAは医療画像分類における最先端のパフォーマンスを達成するだけでなく、多様な個体群の公正性を著しく向上することが示された。
私たちのコードとデータセットはリンクでアクセスできます。
関連論文リスト
- FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - FairCLIP: Harnessing Fairness in Vision-Language Learning [20.743027598445796]
本稿では, 詳細な統計属性, 基盤ラベル, 臨床ノートを提供する, 視覚言語医学データセットについて紹介する。
この種の医療データセットとしては初めての公正なビジョン言語として、HarvardFairMedは、意識的かつ臨床的に有効な機械学習モデルの開発を触媒する可能性を秘めている。
論文 参考訳(メタデータ) (2024-03-29T03:15:31Z) - A Counterfactual Fair Model for Longitudinal Electronic Health Records
via Deconfounder [5.198621505969445]
FLMD(Fair Longitudinal Medical Deconfounder)と呼ばれる新しいモデルを提案する。
FLMDは、縦型Electronic Health Records(EHR)モデリングにおいて、公平性と正確性の両方を達成することを目的としている。
我々は、FLMDの有効性を示すために、2つの実世界のEHRデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2023-08-22T22:43:20Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - MS Lesion Segmentation: Revisiting Weighting Mechanisms for Federated
Learning [92.91544082745196]
フェデレートラーニング(FL)は医用画像解析に広く用いられている。
FLのパフォーマンスは、多発性硬化症(MS)病変セグメンテーションタスクに制限される。
2つの効果的な再重み付け機構によるFLMS病変分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T14:06:03Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - Inverse Distance Aggregation for Federated Learning with Non-IID Data [48.48922416867067]
近年,フェデレートラーニング(FL)は医用画像の分野で有望なアプローチである。
FLにおける重要な問題は、特に医療シナリオにおいて、ノイズの多い分散クライアントやアウトオブディストリビューションクライアントに対して堅牢な、より正確な共有モデルを持つことである。
非平衡データと非IDデータを扱うメタ情報に基づく新しい適応重み付け手法であるIDAを提案する。
論文 参考訳(メタデータ) (2020-08-17T23:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。