論文の概要: Detecting clinician implicit biases in diagnoses using proximal causal inference
- arxiv url: http://arxiv.org/abs/2501.16399v1
- Date: Mon, 27 Jan 2025 05:48:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 22:09:10.930231
- Title: Detecting clinician implicit biases in diagnoses using proximal causal inference
- Title(参考訳): 近位因果推論を用いた臨床診断における暗黙バイアスの検出
- Authors: Kara Liu, Russ Altman, Vasilis Syrgkanis,
- Abstract要約: 大規模医療データにおける臨床医の陰影バイアスが患者の予後に与える影響を検出するための因果推論手法を提案する。
本手法は,英国バイオバンクの実世界データを用いて検証する。
- 参考スコア(独自算出の注目度): 17.541477183671912
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clinical decisions to treat and diagnose patients are affected by implicit biases formed by racism, ableism, sexism, and other stereotypes. These biases reflect broader systemic discrimination in healthcare and risk marginalizing already disadvantaged groups. Existing methods for measuring implicit biases require controlled randomized testing and only capture individual attitudes rather than outcomes. However, the "big-data" revolution has led to the availability of large observational medical datasets, like EHRs and biobanks, that provide the opportunity to investigate discrepancies in patient health outcomes. In this work, we propose a causal inference approach to detect the effect of clinician implicit biases on patient outcomes in large-scale medical data. Specifically, our method uses proximal mediation to disentangle pathway-specific effects of a patient's sociodemographic attribute on a clinician's diagnosis decision. We test our method on real-world data from the UK Biobank. Our work can serve as a tool that initiates conversation and brings awareness to unequal health outcomes caused by implicit biases.
- Abstract(参考訳): 患者を治療し、診断するための臨床的決定は、人種差別、能力主義、性差別、その他のステレオタイプによって形成される暗黙の偏見によって影響を受ける。
これらのバイアスは、医療におけるより広い体系的な差別と、既に不利なグループを疎外するリスクを反映している。
既存の暗黙のバイアスを測定する方法は、制御されたランダム化テストを必要とし、結果よりも個々の態度を捉える必要がある。
しかし、「ビッグデータ」革命は、EHRやバイオバンクのような大規模な医療データセットが利用可能となり、患者の健康結果の相違を調査する機会となった。
本研究では,臨床医の暗黙的偏見が患者の予後に与える影響を大規模医療データで検出するための因果推論手法を提案する。
具体的には、近位メディエーションを用いて、患者の社会デマログラフィー属性が臨床医の診断決定に影響を及ぼす経路特異的な影響を解消する。
本手法は,英国バイオバンクの実世界データを用いて検証する。
私たちの仕事は、会話を開始し、暗黙の偏見によって引き起こされる不平等な健康結果に認識をもたらすツールとして機能する。
関連論文リスト
- Bias in Large Language Models Across Clinical Applications: A Systematic Review [0.0]
大規模言語モデル(LLM)は、医療に急速に統合され、様々な臨床業務を強化することを約束している。
本研究は, LLMの有病率, 出所, 徴候, 臨床的意義について検討する。
論文 参考訳(メタデータ) (2025-04-03T13:32:08Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - A Data-Centric Approach to Detecting and Mitigating Demographic Bias in Pediatric Mental Health Text: A Case Study in Anxiety Detection [3.874958704454859]
臨床テキストにおけるジェンダーベースのコンテンツ格差に対処するデータ中心型脱バイアスフレームワークを開発した。
我々のアプローチは、テキストで訓練されたAI医療モデルのバイアスを軽減する効果的な戦略を示す。
論文 参考訳(メタデータ) (2024-12-30T20:00:22Z) - Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Causal thinking for decision making on Electronic Health Records: why and how [7.5158549898780445]
データ駆動決定には因果思考が必要である。
実生活の患者記録から有効な意思決定を支援するための,ステップバイステップのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T08:17:00Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - A Machine Learning Model for Predicting, Diagnosing, and Mitigating
Health Disparities in Hospital Readmission [0.0]
本稿では,データ中のバイアスの検出と緩和とモデル予測が可能な機械学習パイプラインを提案する。
提案手法の有効性を,精度と公正度の測定値を用いて評価した。
論文 参考訳(メタデータ) (2022-06-13T16:07:25Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - An introduction to causal reasoning in health analytics [2.199093822766999]
従来の機械学習と統計的アプローチで発生する可能性のある欠点のいくつかを強調して、観測データを分析します。
一般的な機械学習問題に対処するための因果推論の応用を実演する。
論文 参考訳(メタデータ) (2021-05-10T20:25:56Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Towards Causality-Aware Inferring: A Sequential Discriminative Approach
for Medical Diagnosis [142.90770786804507]
医学診断アシスタント(MDA)は、疾患を識別するための症状を逐次調査する対話型診断エージェントを構築することを目的としている。
この研究は、因果図を利用して、MDAにおけるこれらの重要な問題に対処しようとする。
本稿では,他の記録から知識を引き出すことにより,非記録的調査に効果的に答える確率に基づく患者シミュレータを提案する。
論文 参考訳(メタデータ) (2020-03-14T02:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。