論文の概要: Fair Machine Learning for Healthcare Requires Recognizing the Intersectionality of Sociodemographic Factors, a Case Study
- arxiv url: http://arxiv.org/abs/2407.15006v1
- Date: Thu, 30 May 2024 19:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 01:55:24.436722
- Title: Fair Machine Learning for Healthcare Requires Recognizing the Intersectionality of Sociodemographic Factors, a Case Study
- Title(参考訳): 医療のための公正な機械学習は, 身体的因子の断面積を認識する必要がある : 事例研究
- Authors: Alissa A. Valentine, Alexander W. Charney, Isotta Landi,
- Abstract要約: 社会経済状態(SES)は、健康上の不平等を制御するための機械学習モデルに一般的に含まれている。
交差する枠組みでは、患者SES、人種、性別が大きな相互作用を持つことが判明した。
SESの増加は、アフリカ系アメリカ人で統合失調症の診断を受ける確率が高いことに関連している。
高いSESは、白人におけるSCZ診断の保護因子として機能する。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As interest in implementing artificial intelligence (AI) in medical systems grows, discussion continues on how to evaluate the fairness of these systems, or the disparities they may perpetuate. Socioeconomic status (SES) is commonly included in machine learning models to control for health inequities, with the underlying assumption that increased SES is associated with better health. In this work, we considered a large cohort of patients from the Mount Sinai Health System in New York City to investigate the effect of patient SES, race, and sex on schizophrenia (SCZ) diagnosis rates via a logistic regression model. Within an intersectional framework, patient SES, race, and sex were found to have significant interactions. Our findings showed that increased SES is associated with a higher probability of obtaining a SCZ diagnosis in Black Americans ($\beta=4.1\times10^{-8}$, $SE=4.5\times10^{-9}$, $p < 0.001$). Whereas high SES acts as a protective factor for SCZ diagnosis in White Americans ($\beta=-4.1\times10^{-8}$, $SE=6.7\times10^{-9}$, $p < 0.001$). Further investigation is needed to reliably explain and quantify health disparities. Nevertheless, we advocate that building fair AI tools for the health care space requires recognizing the intersectionality of sociodemographic factors.
- Abstract(参考訳): 医療システムに人工知能(AI)を実装することへの関心が高まるにつれて、これらのシステムの公平性や、それらが永続する可能性のある格差を評価する方法についての議論が続いている。
社会経済状態(SES)は、マシンラーニングモデルに一般的に含まれており、SESの増加がより良い健康に結びついているという前提がある。
本研究は,ニューヨーク市のマウント・シナイ・ヘルス・システム (Mount Sinai Health System) の患者が統合失調症 (SCZ) の診断率に及ぼす影響について,ロジスティック回帰モデルを用いて検討した。
交差する枠組みでは、患者SES、人種、性別が大きな相互作用を持つことが判明した。
以上の結果から、SESの増加は、黒人におけるSCZ診断の可能性が高くなることが示唆された(\beta=4.1\times10^{-8}$, $SE=4.5\times10^{-9}$, $p < 0.001$)。
高いSESは、白人におけるSCZ診断の保護因子として機能する(\beta=-4.1\times10^{-8}$, $SE=6.7\times10^{-9}$, $p < 0.001$)。
健康格差を確実に説明し定量化するためには、さらなる調査が必要である。
それでも私たちは、医療分野のための公正なAIツールを構築するには、社会デマログラフ的要因の交差性を認識する必要があると提唱している。
関連論文リスト
- Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Unbiased Pain Assessment through Wearables and EHR Data: Multi-attribute
Fairness Loss-based CNN Approach [3.799109312082668]
本稿では,MAFL(Multi-Atribute Fairness Loss)に基づくCNNモデルを提案する。
提案手法と既存の緩和手順を比較し, 実装されたモデルが最先端の手法と対照的に良好に機能することを明らかにする。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - Advancing Community Engaged Approaches to Identifying Structural Drivers
of Racial Bias in Health Diagnostic Algorithms [0.0]
最近、医療におけるバイアスと機械学習アルゴリズムの使用について多くの注目を集めている。
本稿では、データと医療の議論の中心となることの重要性と、医療と科学の経験を強調する。
地域社会のトラウマの集団記憶、医療不足による死亡、医療に対する否定的な経験は、治療と効果的なケアを経験する内因性ドライバーである。
論文 参考訳(メタデータ) (2023-05-22T20:58:15Z) - Building predictive models of healthcare costs with open healthcare data [0.0]
本稿では,機械学習技術を用いた予測モデル開発手法を提案する。
我々は2016年に230万件の患者データを分析した。
私たちは、患者の診断と人口統計からコストを予測するモデルを構築しました。
論文 参考訳(メタデータ) (2023-04-05T02:12:58Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Deep Learning Discovery of Demographic Biomarkers in Echocardiography [0.3957768262206625]
深層学習アルゴリズムを用いて、心エコー画像から年齢、人種、性別を予測することができるかどうかを検証する。
年齢、性別、人種を予測するために、ビデオベースの畳み込みニューラルネットワークをトレーニングしました。
ディープラーニングモデルは、人種を確実に予測できず、年齢と性別を識別できることがわかった。
論文 参考訳(メタデータ) (2022-07-13T16:48:49Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Clinical prediction system of complications among COVID-19 patients: a
development and validation retrospective multicentre study [0.3569980414613667]
2020年4月1日から4月30日までにUAEのアブダビ(AD)で18施設に入院した3,352人の患者から収集したデータを用いた。
最初の24時間に収集されたデータを用いて、機械学習ベースの予後システムは、入院中に7つの合併症を発生させるリスクを予測する。
このシステムは、すべての合併症と両方の領域にわたって良好な精度を達成する。
論文 参考訳(メタデータ) (2020-11-28T18:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。