論文の概要: An Empirical Characterization of Fair Machine Learning For Clinical Risk
Prediction
- arxiv url: http://arxiv.org/abs/2007.10306v3
- Date: Tue, 15 Jun 2021 15:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:24:57.815619
- Title: An Empirical Characterization of Fair Machine Learning For Clinical Risk
Prediction
- Title(参考訳): 臨床リスク予測のための公正な機械学習の実証的特徴付け
- Authors: Stephen R. Pfohl, Agata Foryciarz, Nigam H. Shah
- Abstract要約: 臨床的意思決定を導くための機械学習の使用は、既存の健康格差を悪化させる可能性がある。
近年のいくつかの研究は、この問題をアルゴリズム的公正(英語版)の問題と位置づけている。
我々は,グループフェアネス違反の罰則がモデル性能とグループフェアネスの一連の尺度に与える影響を実験的に評価する。
- 参考スコア(独自算出の注目度): 7.945729033499554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of machine learning to guide clinical decision making has the
potential to worsen existing health disparities. Several recent works frame the
problem as that of algorithmic fairness, a framework that has attracted
considerable attention and criticism. However, the appropriateness of this
framework is unclear due to both ethical as well as technical considerations,
the latter of which include trade-offs between measures of fairness and model
performance that are not well-understood for predictive models of clinical
outcomes. To inform the ongoing debate, we conduct an empirical study to
characterize the impact of penalizing group fairness violations on an array of
measures of model performance and group fairness. We repeat the analyses across
multiple observational healthcare databases, clinical outcomes, and sensitive
attributes. We find that procedures that penalize differences between the
distributions of predictions across groups induce nearly-universal degradation
of multiple performance metrics within groups. On examining the secondary
impact of these procedures, we observe heterogeneity of the effect of these
procedures on measures of fairness in calibration and ranking across
experimental conditions. Beyond the reported trade-offs, we emphasize that
analyses of algorithmic fairness in healthcare lack the contextual grounding
and causal awareness necessary to reason about the mechanisms that lead to
health disparities, as well as about the potential of algorithmic fairness
methods to counteract those mechanisms. In light of these limitations, we
encourage researchers building predictive models for clinical use to step
outside the algorithmic fairness frame and engage critically with the broader
sociotechnical context surrounding the use of machine learning in healthcare.
- Abstract(参考訳): 臨床的意思決定を導くための機械学習の使用は、既存の健康格差を悪化させる可能性がある。
近年のいくつかの研究は、この問題をアルゴリズム的公正(英語版)の問題と位置づけている。
しかし、この枠組みの妥当性は、倫理的・技術的考察の両面から明らかであり、後者は、臨床結果の予測モデルではよく理解されていない公正度尺度とモデルパフォーマンスのトレードオフを含む。
進行中の議論を知らせるために,我々は,モデル性能と集団公平性の一連の尺度に対するグループフェアネス違反の罰則化の影響を特徴付けるための実証研究を行う。
我々は、複数の観察的医療データベース、臨床結果、および繊細な属性に関する分析を繰り返す。
グループ間の予測の分布の違いをペナルティ化する手順は、グループ内の複数のパフォーマンス指標をほぼ一様に劣化させる。
これらの方法の二次的影響について検討し, 実験条件におけるキャリブレーションとランキングの公平性尺度に対するこの方法の効果の多様性を観察した。
報告されたトレードオフを超えて、医療におけるアルゴリズム的公平性の分析は、健康格差につながるメカニズムを判断するために必要な文脈的根拠と因果意識を欠いていることを強調する。
これらの限界に照らして, 臨床応用のための予測モデルを構築し, アルゴリズム的公正枠の外へ踏み出し, 医療における機械学習の利用を取り巻く幅広い社会学的文脈に批判的に関与するよう研究者に促す。
関連論文リスト
- Auditing ICU Readmission Rates in an Clinical Database: An Analysis of
Risk Factors and Clinical Outcomes [0.0]
本研究では,30日間の読解問題における臨床データ分類のための機械学習パイプラインを提案する。
公正監査は、平等機会、予測パリティ、偽陽性率パリティ、偽陰性率パリティ基準の格差を明らかにする。
この研究は、人工知能(AI)システムのバイアスと公平性に対処するために、研究者、政策立案者、実践者の協力的努力の必要性を示唆している。
論文 参考訳(メタデータ) (2023-04-12T17:09:38Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Net benefit, calibration, threshold selection, and training objectives
for algorithmic fairness in healthcare [7.500205995624894]
我々は,モデル性能,公平性,および意思決定の期待される有用性の間の相互作用を評価する。
我々は,動脈硬化性心血管疾患の10年間のリスクを推定するために,モデルの開発を通じて経験的なケーススタディを実施している。
論文 参考訳(メタデータ) (2022-02-03T23:23:05Z) - SurvITE: Learning Heterogeneous Treatment Effects from Time-to-Event
Data [83.50281440043241]
時系列データから不均一な処理効果を推定する問題について検討する。
本稿では,バランス表現に基づく治療特異的ハザード推定のための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T20:13:17Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fair Conformal Predictors for Applications in Medical Imaging [4.236384785644418]
コンフォーマルな手法は、モデル不確実性を臨床的に直感的に表現する方法を提供することで、ディープラーニングモデルを補完することができる。
マンモグラフィー乳房密度と皮膚写真データセットを用いて実験を行い, コンフォメーション予測の有用性を実証した。
コンフォメーション予測器は, 人種や肌の色調などの患者層に対して, カバー範囲の等化に有効であることがわかった。
論文 参考訳(メタデータ) (2021-09-09T16:31:10Z) - Uncertainty estimation for classification and risk prediction on medical
tabular data [0.0]
本研究は,医療データの分類とリスク予測のための不確実性推定の理解を深めるものである。
医療などのデータ共有分野において、モデルの予測の不確実性を測定する能力は、意思決定支援ツールの改善につながる可能性がある。
論文 参考訳(メタデータ) (2020-04-13T08:46:41Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。