論文の概要: Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings
- arxiv url: http://arxiv.org/abs/2003.11515v1
- Date: Wed, 11 Mar 2020 23:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:12:03.053620
- Title: Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings
- Title(参考訳): hurtful words: 臨床的文脈単語埋め込みにおけるバイアスの定量化
- Authors: Haoran Zhang, Amy X. Lu, Mohamed Abdalla, Matthew McDermott, Marzyeh
Ghassemi
- Abstract要約: 本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
- 参考スコア(独自算出の注目度): 16.136832979324467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we examine the extent to which embeddings may encode
marginalized populations differently, and how this may lead to a perpetuation
of biases and worsened performance on clinical tasks. We pretrain deep
embedding models (BERT) on medical notes from the MIMIC-III hospital dataset,
and quantify potential disparities using two approaches. First, we identify
dangerous latent relationships that are captured by the contextual word
embeddings using a fill-in-the-blank method with text from real clinical notes
and a log probability bias score quantification. Second, we evaluate
performance gaps across different definitions of fairness on over 50 downstream
clinical prediction tasks that include detection of acute and chronic
conditions. We find that classifiers trained from BERT representations exhibit
statistically significant differences in performance, often favoring the
majority group with regards to gender, language, ethnicity, and insurance
status. Finally, we explore shortcomings of using adversarial debiasing to
obfuscate subgroup information in contextual word embeddings, and recommend
best practices for such deep embedding models in clinical settings.
- Abstract(参考訳): 本研究は, 組込みが疎外化集団をコードする範囲と, それが臨床タスクにおけるバイアスの持続性やパフォーマンスの悪化につながる可能性について検討する。
本研究は,MIMIC-III病院データセットの医療用ノートに深い埋め込みモデル(BERT)を事前訓練し,2つのアプローチを用いて潜在的な格差を定量化する。
まず、実際の臨床ノートからのテキストとログ確率バイアススコアの定量化を用いて、コンテキスト単語の埋め込みによって捕捉される危険な潜伏関係を同定する。
第2に、急性および慢性の病態の検出を含む50以上の下流臨床予測タスクにおいて、フェアネスの異なる定義間のパフォーマンスギャップを評価する。
BERT表現から訓練された分類器は, 性別, 言語, 民族, 保険状況などにおいて, 統計的に有意なパフォーマンス差を示し, 多数派を好んでいることが判明した。
最後に,文脈的単語埋め込みにおけるサブグループ情報の難読化に逆行脱バイアスを用いることの欠点について検討し,臨床環境における深層埋め込みモデルのベストプラクティスを推奨する。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Knowledge Graph Embeddings for Multi-Lingual Structured Representations
of Radiology Reports [40.606143019674654]
本稿では,新しい軽量グラフベースの埋め込み手法,特に放射線学レポートのキャタリングについて紹介する。
報告書の構造と構成を考慮し、報告書の医療用語を接続する。
本稿では,X線レポートの疾患分類と画像分類という2つのタスクにこの埋め込みを組み込むことについて述べる。
論文 参考訳(メタデータ) (2023-09-02T11:46:41Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Clinical Named Entity Recognition using Contextualized Token
Representations [49.036805795072645]
本稿では,各単語の意味的意味をより正確に把握するために,文脈型単語埋め込み手法を提案する。
言語モデル(C-ELMo)とC-Flair(C-Flair)の2つの深い文脈型言語モデル(C-ELMo)を事前訓練する。
明示的な実験により、静的単語埋め込みとドメインジェネリック言語モデルの両方と比較して、我々のモデルは劇的に改善されている。
論文 参考訳(メタデータ) (2021-06-23T18:12:58Z) - Estimating Redundancy in Clinical Text [6.245180523143739]
臨床医は、既存のメモを複製し、それに従って更新することで、新しい文書をポップアップさせる。
情報冗長性の定量化は、臨床物語を扱う革新を評価する上で重要な役割を果たす。
冗長性を測定するための2つの戦略として,情報理論アプローチと語彙論的・意味論的モデルを提示し,評価する。
論文 参考訳(メタデータ) (2021-05-25T11:01:45Z) - Interpretable bias mitigation for textual data: Reducing gender bias in
patient notes while maintaining classification performance [0.11545092788508224]
2つの臨床ノートデータセットから性別付き言語を識別・除去する。
データ拡張による低~中レベルのバイアス除去のための健康状態分類タスクの最小劣化を示す。
本研究は,自然言語処理パイプラインにおけるバイアスを識別・低減するために,データ拡張を用いた解釈可能なアプローチを概説する。
論文 参考訳(メタデータ) (2021-03-10T03:09:30Z) - Unifying Relational Sentence Generation and Retrieval for Medical Image
Report Composition [142.42920413017163]
現在の手法は、個々のケースのデータセットバイアスにより、しばしば最も一般的な文を生成する。
テンプレート検索と文生成を一体化し、共通およびまれな異常に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T04:33:27Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。