論文の概要: Echoes of Biases: How Stigmatizing Language Affects AI Performance
- arxiv url: http://arxiv.org/abs/2305.10201v3
- Date: Mon, 5 Jun 2023 17:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 01:20:38.177654
- Title: Echoes of Biases: How Stigmatizing Language Affects AI Performance
- Title(参考訳): バイアスのエコー: 言語のスティグマティクスがAIのパフォーマンスに与える影響
- Authors: Yizhi Liu, Weiguang Wang, Guodong Gordon Gao, Ritu Agarwal
- Abstract要約: 本研究では,変圧器を用いた深層学習モデルと説明可能なAI(XAI)技術を用いた死亡予測における音声合成言語(SL)の影響について検討した。
以上の結果から,臨床医によるSLは,特に黒人患者において,AIのパフォーマンスに悪影響を及ぼすことが明らかとなった。
SLの効果を緩和する作業効率の良い方法を探るため,臨床医の協調ネットワークを用いたSL生成のパターンについて検討した。
- 参考スコア(独自算出の注目度): 5.324980428131807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electronic health records (EHRs) serve as an essential data source for the
envisioned artificial intelligence (AI)-driven transformation in healthcare.
However, clinician biases reflected in EHR notes can lead to AI models
inheriting and amplifying these biases, perpetuating health disparities. This
study investigates the impact of stigmatizing language (SL) in EHR notes on
mortality prediction using a Transformer-based deep learning model and
explainable AI (XAI) techniques. Our findings demonstrate that SL written by
clinicians adversely affects AI performance, particularly so for black
patients, highlighting SL as a source of racial disparity in AI model
development. To explore an operationally efficient way to mitigate SL's impact,
we investigate patterns in the generation of SL through a clinicians'
collaborative network, identifying central clinicians as having a stronger
impact on racial disparity in the AI model. We find that removing SL written by
central clinicians is a more efficient bias reduction strategy than eliminating
all SL in the entire corpus of data. This study provides actionable insights
for responsible AI development and contributes to understanding clinician
behavior and EHR note writing in healthcare.
- Abstract(参考訳): EHR(Electronic Health Record)は、医療におけるAI(AI)主導の変革に必要なデータソースとして機能する。
しかし、EHRノートに反映された臨床バイアスは、これらのバイアスを継承し増幅し、健康格差を持続させるAIモデルにつながる可能性がある。
本研究では,変圧器を用いた深層学習モデルと説明可能なAI(XAI)技術を用いた死亡予測における音声合成言語(SL)の影響について検討した。
以上の結果から,臨床医が作成したSLは,特に黒人患者に対して,AIモデル開発における人種格差の源泉として,AIのパフォーマンスに悪影響を及ぼすことが明らかとなった。
SLの効果を緩和するための運用的に効率的な方法を探るため,臨床医の協調ネットワークを通じてSLの生成パターンを調査し,AIモデルにおける人種格差に強い影響を与えると認識した。
中央臨床医によるSLの除去は,全データのSLを除去するよりも,より効率的なバイアス低減戦略であることがわかった。
本研究は,責任あるai開発に有効な洞察を提供し,臨床行動の理解と,ehr note writing in healthcareに寄与する。
関連論文リスト
- Towards Human-AI Collaboration in Healthcare: Guided Deferral Systems with Large Language Models [1.2281181385434294]
大規模言語モデル(LLM)は、医療における様々なアプリケーションに有用な技術を提供する。
彼らの幻覚傾向は、批判的な意思決定の状況において受け入れ難い不確実性をもたらす。
人間とAIのコラボレーションは、より良い結果を得るために人間とAIの強みを組み合わせることで、この不確実性を軽減することができる。
本稿では,AIが人間の意思決定者に対してケースをデフェクトした場合にインテリジェントなガイダンスを提供する,新しいガイド付きデフェラルシステムを提案する。
論文 参考訳(メタデータ) (2024-06-11T12:41:54Z) - Explainable AI in Diagnosing and Anticipating Leukemia Using Transfer
Learning Method [0.0]
本研究は,小児および10代に流行する急性リンパ芽球性白血病(ALL)に焦点をあてる。
ディープラーニング技術を活用したコンピュータ支援診断(CAD)モデルを用いた自動検出手法を提案する。
提案手法は98.38%の精度を達成し、他の試験モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T10:37:02Z) - Deployment of a Robust and Explainable Mortality Prediction Model: The
COVID-19 Pandemic and Beyond [0.59374762912328]
本研究では、新型コロナウイルスのパンデミック以降の死亡率予測におけるAIモデルの有効性、説明可能性、堅牢性について検討した。
論文 参考訳(メタデータ) (2023-11-28T18:15:53Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Rationale production to support clinical decision-making [31.66739991129112]
本稿では,病院の退院予測にInfoCalを適用した。
選択された解釈可能性を持つ各提示モデルや特徴重要度法は,それぞれ異なる結果をもたらす。
論文 参考訳(メタデータ) (2021-11-15T09:02:10Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。