論文の概要: FairMed-XGB: A Bayesian-Optimised Multi-Metric Framework with Explainability for Demographic Equity in Critical Healthcare Data
- arxiv url: http://arxiv.org/abs/2603.14947v1
- Date: Mon, 16 Mar 2026 07:57:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.144536
- Title: FairMed-XGB: A Bayesian-Optimised Multi-Metric Framework with Explainability for Demographic Equity in Critical Healthcare Data
- Title(参考訳): FairMed-XGB: 臨界医療データにおける復号性を示すベイズ最適化マルチメトリックフレームワーク
- Authors: Mitul Goswami, Romit Chatterjee, Arif Ahmed Sekh,
- Abstract要約: 批判的ケア設定にデプロイされた機械学習モデルは、人口統計バイアス、特に性別格差を示す。
本稿では,ジェンダーベースの予測バイアスを体系的に検出し緩和する新しいフレームワークであるFairMed-XGBを紹介する。
FairMed-XGBは、公平な臨床試験のための堅牢で解釈可能で倫理的に整合したソリューションを提供する。
- 参考スコア(独自算出の注目度): 1.7915158401181968
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models deployed in critical care settings exhibit demographic biases, particularly gender disparities, that undermine clinical trust and equitable treatment. This paper introduces FairMed-XGB, a novel framework that systematically detects and mitigates gender-based prediction bias while preserving model performance and transparency. The framework integrates a fairness-aware loss function combining Statistical Parity Difference, Theil Index, and Wasserstein Distance, jointly optimised via Bayesian Search into an XGBoost classifier. Post-mitigation evaluation on seven clinically distinct cohorts derived from the MIMIC-IV-ED and eICU databases demonstrates substantial bias reduction: Statistical Parity Difference decreases by 40 to 51 percent on MIMIC-IV-ED and 10 to 19 percent on eICU; Theil Index collapses by four to five orders of magnitude to near-zero values; Wasserstein Distance is reduced by 20 to 72 percent. These gains are achieved with negligible degradation in predictive accuracy (AUC-ROC drop <0.02). SHAP-based explainability reveals that the framework diminishes reliance on gender-proxy features, providing clinicians with actionable insights into how and where bias is corrected. FairMed-XGB offers a robust, interpretable, and ethically aligned solution for equitable clinical decision-making, paving the way for trustworthy deployment of AI in high-stakes healthcare environments.
- Abstract(参考訳): 批判的ケア設定にデプロイされた機械学習モデルは、人口統計バイアス、特に性別格差を示し、臨床的信頼と公平な治療を損なう。
本稿では,モデル性能と透明性を保ちながら,性別ベースの予測バイアスを体系的に検出・緩和する新しいフレームワークであるFairMed-XGBを紹介する。
このフレームワークは、統計的パリティ差分、Theil Index、Wasserstein Distanceを組み合わせた公正な損失関数を統合し、ベイジアンサーチによってXGBoost分類器に最適化される。
MIMIC-IV-EDおよびeICUデータベースから得られた7つの臨床分離コホートに対する減量後評価は、有意なバイアス低下を示す: 統計的パリティの差は、MIMIC-IV-EDで40~51パーセント、eICUで10~19パーセント減少し、Theil Indexは4~5桁からほぼゼロの値に崩壊し、Wasserstein Distanceは20~72%減少する。
これらの利得は、予測精度の無視可能な劣化(AUC-ROC drop <0.02)で達成される。
SHAPに基づく説明責任は、このフレームワークがジェンダープロキシ機能への依存を減らし、臨床医にバイアスの修正方法と場所に関する実用的な洞察を与えることを示している。
FairMed-XGBは、公平な臨床試験のための堅牢で解釈可能な倫理的に整合したソリューションを提供する。
関連論文リスト
- Case Prompting to Mitigate Large Language Model Bias for ICU Mortality Prediction [17.91443453604627]
大規模言語モデル(LLM)は、構造化された医療データから結果を予測することを約束している。
LLMは性、年齢、人種に関する人口統計バイアスを示し、臨床実践における信頼に値する使用を制限することができる。
本研究では,公正さとパフォーマンスを同時に向上するトレーニングフリー,臨床適応型プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-17T12:29:53Z) - EchoBench: Benchmarking Sycophancy in Medical Large Vision-Language Models [82.43729208063468]
医療用LVLM(Large Vision-Language Models)の最近のベンチマークでは、信頼性と安全性を見越して、リーダボードの精度を強調している。
ユーザが提供した情報を非批判的に反響させる傾向のモデルについて検討する。
医療用LVLMの梅毒を系統的に評価するベンチマークであるEchoBenchを紹介する。
論文 参考訳(メタデータ) (2025-09-24T14:09:55Z) - From Scores to Steps: Diagnosing and Improving LLM Performance in Evidence-Based Medical Calculations [45.414878840652115]
大規模言語モデル(LLM)は医療ベンチマークで有望な性能を示した。
しかし、医学的な計算を行う能力は未熟であり、評価も不十分である。
本研究は,臨床信頼性を重視した医療計算評価を再考する。
論文 参考訳(メタデータ) (2025-09-20T09:10:26Z) - Comparative assessment of fairness definitions and bias mitigation strategies in machine learning-based diagnosis of Alzheimer's disease from MR images [4.569587135821805]
本研究では,MCIとアルツハイマー病(AD)の診断のための機械学習モデル(ML)の公平性解析をMRIによる神経画像特徴から行う。
マルチコホートデータセットにおける年齢,人種,性別に関連するバイアスについて検討した。
その結果、年齢や人種に関連するバイアスの存在が明らかとなったが、有意な性別バイアスは観察されなかった。
論文 参考訳(メタデータ) (2025-05-29T15:07:19Z) - Multi-Modal Explainable Medical AI Assistant for Trustworthy Human-AI Collaboration [17.11245701879749]
Generalist Medical AI (GMAI) システムは、バイオメディカル認知タスクにおいて、専門家レベルのパフォーマンスを実証している。
本稿では,XMedGPTについて紹介する。XMedGPTはクリニック中心のマルチモーダルAIアシスタントで,テキストと視覚の解釈性を統合している。
我々は,マルチモーダル解釈可能性,不確実性定量化,予測モデリング,厳密なベンチマークの4つの柱にまたがってXMedGPTを検証する。
論文 参考訳(メタデータ) (2025-05-11T08:32:01Z) - Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。