論文の概要: FERI: A Multitask-based Fairness Achieving Algorithm with Applications
to Fair Organ Transplantation
- arxiv url: http://arxiv.org/abs/2310.13820v1
- Date: Fri, 20 Oct 2023 21:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 05:07:44.892817
- Title: FERI: A Multitask-based Fairness Achieving Algorithm with Applications
to Fair Organ Transplantation
- Title(参考訳): FERI: 臓器移植のためのマルチタスク型フェアネス獲得アルゴリズム
- Authors: Can Li, Dejian Lai, Xiaoqian Jiang, Kai Zhang
- Abstract要約: 本研究は, 肝移植患者の移植失敗リスクの公平な予測のために, Equitable Rate of Improvement in Multitask Learning (FERI) アルゴリズムを用いてフェアネスを紹介する。
FERIは、学習率のバランスとトレーニングプロセスにおけるサブグループ支配の防止により、サブグループ損失を抑える。
特に性別では、FERIは人口格差を71.74%減らし、年齢層では40.46%減らしている。
- 参考スコア(独自算出の注目度): 16.91239959889591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Liver transplantation often faces fairness challenges across subgroups
defined by sensitive attributes like age group, gender, and race/ethnicity.
Machine learning models for outcome prediction can introduce additional biases.
To address these, we introduce Fairness through the Equitable Rate of
Improvement in Multitask Learning (FERI) algorithm for fair predictions of
graft failure risk in liver transplant patients. FERI constrains subgroup loss
by balancing learning rates and preventing subgroup dominance in the training
process. Our experiments show that FERI maintains high predictive accuracy with
AUROC and AUPRC comparable to baseline models. More importantly, FERI
demonstrates an ability to improve fairness without sacrificing accuracy.
Specifically, for gender, FERI reduces the demographic parity disparity by
71.74%, and for the age group, it decreases the equalized odds disparity by
40.46%. Therefore, the FERI algorithm advances fairness-aware predictive
modeling in healthcare and provides an invaluable tool for equitable healthcare
systems.
- Abstract(参考訳): 肝臓移植はしばしば、年齢グループ、性別、人種/民族といった敏感な属性によって定義されるサブグループ間で公平な課題に直面します。
結果予測のための機械学習モデルは、さらなるバイアスを導入することができる。
そこで本研究では, 肝移植患者の移植失敗リスクの公平な予測のために, Equitable Rate of Improvement in Multitask Learning (FERI) アルゴリズムを用いてフェアネスを導入する。
FERIは、学習率のバランスとトレーニングプロセスにおけるサブグループ支配の防止により、サブグループ損失を抑える。
実験の結果,FERIはベースラインモデルに匹敵するAUROCとAUPRCで高い予測精度を維持していることがわかった。
さらに、FERIは精度を犠牲にすることなく公平性を向上させる能力を示す。
特に性別では、feriは人口格差を71.74%減少させ、年齢層では40.46%減少させる。
したがって、FERIアルゴリズムは医療における公平性を考慮した予測モデリングを進め、公平な医療システムのための貴重なツールを提供する。
関連論文リスト
- FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Evaluating Fair Feature Selection in Machine Learning for Healthcare [0.9222623206734782]
特徴選択の観点からアルゴリズム的公正性を探究する。
全人口集団に等しく重要と考えられる公平な特徴選択法を評価する。
当社のアプローチを、公開可能な3つの医療データセットでテストしました。
論文 参考訳(メタデータ) (2024-03-28T06:24:04Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Auditing ICU Readmission Rates in an Clinical Database: An Analysis of
Risk Factors and Clinical Outcomes [0.0]
本研究では,30日間の読解問題における臨床データ分類のための機械学習パイプラインを提案する。
公正監査は、平等機会、予測パリティ、偽陽性率パリティ、偽陰性率パリティ基準の格差を明らかにする。
この研究は、人工知能(AI)システムのバイアスと公平性に対処するために、研究者、政策立案者、実践者の協力的努力の必要性を示唆している。
論文 参考訳(メタデータ) (2023-04-12T17:09:38Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Assessing Social Determinants-Related Performance Bias of Machine
Learning Models: A case of Hyperchloremia Prediction in ICU Population [6.8473641147443995]
高塩素血症を予測するために構築された4つの分類器について検討した。
実験室をベースとした機能に加え, 社会的決定因子の付加は, 全患者のモデル性能を向上することがわかった。
我々は将来の研究者に、潜在的なバイアスを積極的に調整し、サブグループレポートを含むモデルを設計するよう促す。
論文 参考訳(メタデータ) (2021-11-18T03:58:50Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。