論文の概要: Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN
- arxiv url: http://arxiv.org/abs/2211.08742v1
- Date: Wed, 16 Nov 2022 08:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 13:44:45.039648
- Title: Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN
- Title(参考訳): 重度に基づくloganを用いた健康のための機械学習の監査アルゴリズム的公平性
- Authors: Anaelia Ovalle, Sunipa Dev, Jieyu Zhao, Majid Sarrafzadeh, Kai-Wei
Chang
- Abstract要約: 臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
- 参考スコア(独自算出の注目度): 70.76142503046782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auditing machine learning-based (ML) healthcare tools for bias is critical to
preventing patient harm, especially in communities that disproportionately face
health inequities. General frameworks are becoming increasingly available to
measure ML fairness gaps between groups. However, ML for health (ML4H) auditing
principles call for a contextual, patient-centered approach to model
assessment. Therefore, ML auditing tools must be (1) better aligned with ML4H
auditing principles and (2) able to illuminate and characterize communities
vulnerable to the most harm. To address this gap, we propose supplementing ML4H
auditing frameworks with SLOGAN (patient Severity-based LOcal Group biAs
detectioN), an automatic tool for capturing local biases in a clinical
prediction task. SLOGAN adapts an existing tool, LOGAN (LOcal Group biAs
detectioN), by contextualizing group bias detection in patient illness severity
and past medical history. We investigate and compare SLOGAN's bias detection
capabilities to LOGAN and other clustering techniques across patient subgroups
in the MIMIC-III dataset. On average, SLOGAN identifies larger fairness
disparities in over 75% of patient groups than LOGAN while maintaining
clustering quality. Furthermore, in a diabetes case study, health disparity
literature corroborates the characterizations of the most biased clusters
identified by SLOGAN. Our results contribute to the broader discussion of how
machine learning biases may perpetuate existing healthcare disparities.
- Abstract(参考訳): 偏見のための機械学習ベースの(ml)ヘルスケアツールの監査は、特に不釣り合いに健康の不平等に直面しているコミュニティにおいて、患者の危害を防ぐために重要である。
一般的なフレームワークは、グループ間のMLフェアネスギャップを測定するために、ますます利用され始めている。
しかし、健康のためのML(ML4H)監査の原則は、モデルアセスメントに対する文脈的、患者中心のアプローチを要求する。
したがって,ML監査ツールは,(1)ML4H監査の原則に適合し,(2)最も危害の弱いコミュニティを照明し,特徴づけることができる必要がある。
このギャップに対処するために,臨床予測タスクで局所バイアスを捉えるための自動ツールであるslogan (patient severe-based local group bias detection) を用いたml4h監査フレームワークの補足を提案する。
SLOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOGAN(LOcal Group biAs detectioN)に適応する。
我々はSLOGANのバイアス検出能力をMIMIC-IIIデータセットの患者サブグループ間でLOGANや他のクラスタリング技術と比較した。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
さらに、糖尿病症例では、健康格差の文献がSLOGANによって同定された最も偏りのあるクラスターの特徴を裏付けている。
私たちの結果は、機械学習のバイアスが既存の医療格差を持続させる方法に関する幅広い議論に寄与しています。
関連論文リスト
- Aligning (Medical) LLMs for (Counterfactual) Fairness [2.089191490381739]
大規模言語モデル(LLM)は、医療および臨床決定支援アプリケーションのための有望なソリューションとして登場した。
LLMは様々な種類のバイアスを受けており、個人の不公平な扱い、健康格差の悪化、AIが強化された医療ツールへの信頼の低下につながる可能性がある。
本稿では, 知識蒸留フレームワークにおける優先最適化手法を用いて, LLMの整列化のための新しいモデルアライメント手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T01:11:27Z) - Cross-Care: Assessing the Healthcare Implications of Pre-training Data on Language Model Bias [3.455189439319919]
大規模な言語モデル(LLM)におけるバイアスと実世界の知識を評価するための最初のベンチマークフレームワークであるCross-Careを紹介する。
ThePile$のような事前学習コーパスに埋め込まれた人口統計バイアスがLLMの出力にどのように影響するかを評価する。
以上の結果から, LLMの病状有病率と, 集団間での実際の病状有病率との相違が明らかとなった。
論文 参考訳(メタデータ) (2024-05-09T02:33:14Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Auditing ICU Readmission Rates in an Clinical Database: An Analysis of
Risk Factors and Clinical Outcomes [0.0]
本研究では,30日間の読解問題における臨床データ分類のための機械学習パイプラインを提案する。
公正監査は、平等機会、予測パリティ、偽陽性率パリティ、偽陰性率パリティ基準の格差を明らかにする。
この研究は、人工知能(AI)システムのバイアスと公平性に対処するために、研究者、政策立案者、実践者の協力的努力の必要性を示唆している。
論文 参考訳(メタデータ) (2023-04-12T17:09:38Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Assessing Social Determinants-Related Performance Bias of Machine
Learning Models: A case of Hyperchloremia Prediction in ICU Population [6.8473641147443995]
高塩素血症を予測するために構築された4つの分類器について検討した。
実験室をベースとした機能に加え, 社会的決定因子の付加は, 全患者のモデル性能を向上することがわかった。
我々は将来の研究者に、潜在的なバイアスを積極的に調整し、サブグループレポートを含むモデルを設計するよう促す。
論文 参考訳(メタデータ) (2021-11-18T03:58:50Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。