論文の概要: FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction
- arxiv url: http://arxiv.org/abs/2410.17269v1
- Date: Mon, 07 Oct 2024 13:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:41:09.002263
- Title: FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction
- Title(参考訳): FairFML:Fair Federated Machine Learning : 心身流出予測における性差の低減を事例として
- Authors: Siqi Li, Qiming Wu, Xin Li, Di Miao, Chuan Hong, Wenjun Gu, Yuqing Shang, Yohei Okada, Michael Hao Chen, Mengying Yan, Yilin Ning, Marcus Eng Hock Ong, Nan Liu,
- Abstract要約: 本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 10.016644624468762
- License:
- Abstract: Objective: Mitigating algorithmic disparities is a critical challenge in healthcare research, where ensuring equity and fairness is paramount. While large-scale healthcare data exist across multiple institutions, cross-institutional collaborations often face privacy constraints, highlighting the need for privacy-preserving solutions that also promote fairness. Materials and Methods: In this study, we present Fair Federated Machine Learning (FairFML), a model-agnostic solution designed to reduce algorithmic bias in cross-institutional healthcare collaborations while preserving patient privacy. As a proof of concept, we validated FairFML using a real-world clinical case study focused on reducing gender disparities in cardiac arrest outcome prediction. Results: We demonstrate that the proposed FairFML framework enhances fairness in federated learning (FL) models without compromising predictive performance. Our findings show that FairFML improves model fairness by up to 65% compared to the centralized model, while maintaining performance comparable to both local and centralized models, as measured by receiver operating characteristic analysis. Discussion and Conclusion: FairFML offers a promising and flexible solution for FL collaborations, with its adaptability allowing seamless integration with various FL frameworks and models, from traditional statistical methods to deep learning techniques. This makes FairFML a robust approach for developing fairer FL models across diverse clinical and biomedical applications.
- Abstract(参考訳): 目的:アルゴリズムの格差を緩和することは、医療研究において重要な課題であり、公平性と公平性を保証することが最重要である。
大規模な医療データは複数の機関にまたがって存在するが、機関間協力はしばしばプライバシーの制約に直面し、公正性を促進するプライバシー保護ソリューションの必要性を強調している。
材料と方法:本研究では,患者プライバシを維持しながら,施設間医療連携におけるアルゴリズムバイアスを低減するために設計された,モデルに依存しないFair Federated Machine Learning(FairFML)を提案する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
結果: このFairFMLフレームワークは,予測性能を損なうことなく,フェデレートラーニング(FL)モデルの公平性を向上することを示した。
この結果から,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%の精度でモデルフェアネスを向上させることが示された。
議論と結論: FairFMLはFLコラボレーションに有望で柔軟なソリューションを提供し、その適応性により、従来の統計手法からディープラーニング技術まで、さまざまなFLフレームワークやモデルとのシームレスな統合を可能にします。
これにより、FairFMLは、様々な臨床および生体医学応用にまたがるより公正なFLモデルを開発するための堅牢なアプローチとなる。
関連論文リスト
- Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare [6.608905791768002]
フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
論文 参考訳(メタデータ) (2024-03-08T11:51:00Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Improving Fairness in AI Models on Electronic Health Records: The Case
for Federated Learning Methods [0.0]
我々は、医療機関が連合学習パラダイムを通じて協力することで、バイアスの懸念を軽減する1つの可能なアプローチを示す。
本稿では,様々な公正度尺度に適合する,対向的偏りを伴う包括的FL手法とフェアアグリゲーション手法を提案する。
本手法は, 判定性能(精度)に最低限の影響を伴って, 有望な公平性を達成している。
論文 参考訳(メタデータ) (2023-05-19T02:03:49Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - MS Lesion Segmentation: Revisiting Weighting Mechanisms for Federated
Learning [92.91544082745196]
フェデレートラーニング(FL)は医用画像解析に広く用いられている。
FLのパフォーマンスは、多発性硬化症(MS)病変セグメンテーションタスクに制限される。
2つの効果的な再重み付け機構によるFLMS病変分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T14:06:03Z) - Closing the Generalization Gap of Cross-silo Federated Medical Image
Segmentation [66.44449514373746]
クロスサイロ・フェデレーション・ラーニング (FL) は近年, 深層学習による医用画像解析において注目されている。
FLでトレーニングされたモデルと、集中的なトレーニングでトレーニングされたモデルの間にはギャップがある。
本稿では,クライアントの問題を回避し,ドリフトギャップを解消するための新しいトレーニングフレームワークであるFedSMを提案する。
論文 参考訳(メタデータ) (2022-03-18T19:50:07Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。