論文の概要: Write It Like You See It: Detectable Differences in Clinical Notes By
Race Lead To Differential Model Recommendations
- arxiv url: http://arxiv.org/abs/2205.03931v1
- Date: Sun, 8 May 2022 18:24:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-11 02:58:24.543023
- Title: Write It Like You See It: Detectable Differences in Clinical Notes By
Race Lead To Differential Model Recommendations
- Title(参考訳): ご覧のように書く: レースリードによる臨床メモの差を検出できるのは、差分モデル勧告だ
- Authors: Hammaad Adam, Ming Ying Yang, Kenrick Cato, Ioana Baldini, Charles
Senteio, Leo Anthony Celi, Jiaming Zeng, Moninder Singh, Marzyeh Ghassemi
- Abstract要約: 機械学習モデルと人間専門家が利用できる暗黙の人種情報のレベルについて検討する。
また,本研究の結果から,被験者の自己申告した人種を,明示的な人種指標から取り除かれた場合でも,臨床記録から特定できることがわかった。
以上の結果から,これらのテストノートに基づいてトレーニングしたモデルが,臨床治療決定における既存のバイアスを持続させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 15.535251319178379
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical notes are becoming an increasingly important data source for machine
learning (ML) applications in healthcare. Prior research has shown that
deploying ML models can perpetuate existing biases against racial minorities,
as bias can be implicitly embedded in data. In this study, we investigate the
level of implicit race information available to ML models and human experts and
the implications of model-detectable differences in clinical notes. Our work
makes three key contributions. First, we find that models can identify patient
self-reported race from clinical notes even when the notes are stripped of
explicit indicators of race. Second, we determine that human experts are not
able to accurately predict patient race from the same redacted clinical notes.
Finally, we demonstrate the potential harm of this implicit information in a
simulation study, and show that models trained on these race-redacted clinical
notes can still perpetuate existing biases in clinical treatment decisions.
- Abstract(参考訳): 臨床ノートは、医療における機械学習(ML)アプリケーションにとって、ますます重要なデータソースになりつつある。
以前の研究では、MLモデルのデプロイは、人種的少数派に対する既存のバイアスを永続させる可能性があることが示されている。
本研究では,MLモデルと人間専門家が利用できる暗黙の人種情報のレベルと,臨床ノートにおけるモデル検出可能な差異の影響について検討する。
私たちの仕事は3つの重要な貢献をします。
まず,被験者の自記式人種を,明示的な人種の指標から取り除かれても,臨床ノートから識別できることを見いだした。
第2に、人間の専門家は、同一の臨床記録から、患者の人種を正確に予測できないと判断する。
最後に,この暗黙的情報の潜在的影響をシミュレーション研究で示し,これらの人種が有する臨床記録に基づいて訓練されたモデルが臨床治療決定における既存のバイアスを持続する可能性を示す。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
医用画像の分類性能に関する連続学習戦略(CL)の行動について検討した。
我々は,リプレイ,フォーッティングなし学習(LwF),LwF,Pseudo-Label戦略を評価した。
LwF と Pseudo-Label は最適な分類性能を示すが、評価に公正度の測定値を含めると、Pseudo-Label がバイアスが少ないことは明らかである。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Making the Most Out of the Limited Context Length: Predictive Power
Varies with Clinical Note Type and Note Section [70.37720062263176]
本研究では,高い予測力で区間を解析する枠組みを提案する。
MIMIC-IIIを用いて,(1)看護用音符と退院用音符とでは予測電力分布が異なること,(2)文脈長が大きい場合の音符の組み合わせにより性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-13T20:04:05Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Avoiding Biased Clinical Machine Learning Model Performance Estimates in
the Presence of Label Selection [3.3944964838781093]
ラベル選択の3つのクラスを記述し、5つの因果的シナリオをシミュレートし、特定の選択メカニズムが、一般的に報告されているバイナリ機械学習モデルパフォーマンス指標の組に偏っているかを評価する。
その結果, 観測個体群におけるAUROCの有意な推定値が, 実成績を最大20%下回っていることがわかった。
このような格差は、成功した臨床意思決定支援ツールの誤った終了につながるのに十分大きな可能性がある。
論文 参考訳(メタデータ) (2022-09-15T22:30:14Z) - Disparate Censorship & Undertesting: A Source of Label Bias in Clinical
Machine Learning [14.133370438685969]
同等のリスクを持つ患者に対する異なる検閲は、特定のグループで過小評価され、その結果、そのようなグループに対するより偏見のあるラベルとなる。
本研究は,臨床MLモデルにおけるラベルバイアスの源泉として,異なる検閲への注意を呼び起こす。
論文 参考訳(メタデータ) (2022-08-01T20:15:31Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups [17.415882865534638]
機械学習モデルは、患者の人種的アイデンティティと臨床結果の間に望ましくない相関関係を拾うことができる。
これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、取り除いたりするかについては、ほとんど分かっていない。
論文 参考訳(メタデータ) (2021-10-27T20:30:57Z) - Reading Race: AI Recognises Patient's Racial Identity In Medical Images [9.287449389763413]
画像の解釈を行う人間の専門家にとって明らかな、医療画像における人種の相関関係は知られていない。
標準的なディープラーニングモデルは、複数の画像モダリティにまたがる高性能な医療画像から競合を予測するためにトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-21T21:10:16Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。