論文の概要: Disparate Censorship & Undertesting: A Source of Label Bias in Clinical
Machine Learning
- arxiv url: http://arxiv.org/abs/2208.01127v1
- Date: Mon, 1 Aug 2022 20:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:44:09.907017
- Title: Disparate Censorship & Undertesting: A Source of Label Bias in Clinical
Machine Learning
- Title(参考訳): 異なる検閲と検査:臨床機械学習におけるラベルバイアスの源泉
- Authors: Trenton Chang, Michael W. Sjoding, Jenna Wiens
- Abstract要約: 同等のリスクを持つ患者に対する異なる検閲は、特定のグループで過小評価され、その結果、そのようなグループに対するより偏見のあるラベルとなる。
本研究は,臨床MLモデルにおけるラベルバイアスの源泉として,異なる検閲への注意を呼び起こす。
- 参考スコア(独自算出の注目度): 14.133370438685969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning (ML) models gain traction in clinical applications,
understanding the impact of clinician and societal biases on ML models is
increasingly important. While biases can arise in the labels used for model
training, the many sources from which these biases arise are not yet
well-studied. In this paper, we highlight disparate censorship (i.e.,
differences in testing rates across patient groups) as a source of label bias
that clinical ML models may amplify, potentially causing harm. Many patient
risk-stratification models are trained using the results of clinician-ordered
diagnostic and laboratory tests of labels. Patients without test results are
often assigned a negative label, which assumes that untested patients do not
experience the outcome. Since orders are affected by clinical and resource
considerations, testing may not be uniform in patient populations, giving rise
to disparate censorship. Disparate censorship in patients of equivalent risk
leads to undertesting in certain groups, and in turn, more biased labels for
such groups. Using such biased labels in standard ML pipelines could contribute
to gaps in model performance across patient groups. Here, we theoretically and
empirically characterize conditions in which disparate censorship or
undertesting affect model performance across subgroups. Our findings call
attention to disparate censorship as a source of label bias in clinical ML
models.
- Abstract(参考訳): 機械学習(ML)モデルが臨床応用において勢いを増すにつれて、臨床医と社会的バイアスがMLモデルに与える影響を理解することがますます重要である。
バイアスはモデルトレーニングに使用されるラベルに現れるが、これらのバイアスが発生する多くのソースはまだよく研究されていない。
本稿では、臨床MLモデルが増幅し、害をもたらす可能性のあるラベルバイアスの源として、異なる検閲(すなわち、患者グループ間でのテスト率の違い)を強調する。
多くの患者リスク階層モデルは、臨床医師による診断とラベルの検査の結果を用いて訓練される。
検査結果のない患者は負のラベルを付けることが多く、未検査の患者はその結果を経験していないと仮定する。
注文は臨床と資源の考慮によって影響を受けるため、患者集団では検査は均一ではなく、異なる検閲を引き起こす可能性がある。
同等のリスクを持つ患者に対する異なる検閲は、特定のグループで過小評価され、その結果、そのようなグループに対するより偏見のあるラベルとなる。
このようなバイアス付きラベルを標準的なMLパイプラインで使用すると、患者グループ間のモデルパフォーマンスのギャップに寄与する可能性がある。
ここでは,異なる検閲やアンダーテストがサブグループ間のモデル性能に影響を及ぼす条件を理論的,実証的に特徴付ける。
臨床MLモデルにおけるラベルバイアスの源泉として,異なる検閲に注意を払っている。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - From Biased Selective Labels to Pseudo-Labels: An Expectation-Maximization Framework for Learning from Biased Decisions [9.440055827786596]
異種検閲という,臨床に着想を得た選択的ラベル問題について検討した。
Disparate Censorship expectation-Maximization (DCEM)は、このような検閲の存在下で学習するためのアルゴリズムである。
論文 参考訳(メタデータ) (2024-06-27T03:33:38Z) - How Does Pruning Impact Long-Tailed Multi-Label Medical Image
Classifiers? [49.35105290167996]
プルーニングは、ディープニューラルネットワークを圧縮し、全体的なパフォーマンスに大きな影響を及ぼすことなく、メモリ使用量と推論時間を短縮する強力なテクニックとして登場した。
この研究は、プルーニングがモデル行動に与える影響を理解するための第一歩である。
論文 参考訳(メタデータ) (2023-08-17T20:40:30Z) - Avoiding Biased Clinical Machine Learning Model Performance Estimates in
the Presence of Label Selection [3.3944964838781093]
ラベル選択の3つのクラスを記述し、5つの因果的シナリオをシミュレートし、特定の選択メカニズムが、一般的に報告されているバイナリ機械学習モデルパフォーマンス指標の組に偏っているかを評価する。
その結果, 観測個体群におけるAUROCの有意な推定値が, 実成績を最大20%下回っていることがわかった。
このような格差は、成功した臨床意思決定支援ツールの誤った終了につながるのに十分大きな可能性がある。
論文 参考訳(メタデータ) (2022-09-15T22:30:14Z) - Write It Like You See It: Detectable Differences in Clinical Notes By
Race Lead To Differential Model Recommendations [15.535251319178379]
機械学習モデルと人間専門家が利用できる暗黙の人種情報のレベルについて検討する。
また,本研究の結果から,被験者の自己申告した人種を,明示的な人種指標から取り除かれた場合でも,臨床記録から特定できることがわかった。
以上の結果から,これらのテストノートに基づいてトレーニングしたモデルが,臨床治療決定における既存のバイアスを持続させる可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-08T18:24:11Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups [17.415882865534638]
機械学習モデルは、患者の人種的アイデンティティと臨床結果の間に望ましくない相関関係を拾うことができる。
これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、取り除いたりするかについては、ほとんど分かっていない。
論文 参考訳(メタデータ) (2021-10-27T20:30:57Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。