論文の概要: Gender bias in (non)-contextual clinical word embeddings for
stereotypical medical categories
- arxiv url: http://arxiv.org/abs/2208.01341v2
- Date: Mon, 8 Aug 2022 14:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:16:13.850538
- Title: Gender bias in (non)-contextual clinical word embeddings for
stereotypical medical categories
- Title(参考訳): ステレオタイプ医療カテゴリーにおける(非)文脈的臨床単語埋め込みにおける性バイアス
- Authors: Gizem Sogancioglu, Fabian Mijsters, Amar van Uden, Jelle Peperzak
- Abstract要約: 本研究は, 精神疾患, 性感染症, 性格特性の3つの医療カテゴリーにおける, 臨床埋め込みの性別バイアスを分析した。
いずれの埋め込みもセンシティブな性グループに偏りがあることが示されるが,BioWordVecは3つのカテゴリーで臨床-BERTよりも高い偏りを示す。
- 参考スコア(独自算出の注目度): 0.4588028371034407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical word embeddings are extensively used in various Bio-NLP problems as
a state-of-the-art feature vector representation. Although they are quite
successful at the semantic representation of words, due to the dataset - which
potentially carries statistical and societal bias - on which they are trained,
they might exhibit gender stereotypes. This study analyses gender bias of
clinical embeddings on three medical categories: mental disorders, sexually
transmitted diseases, and personality traits. To this extent, we analyze two
different pre-trained embeddings namely (contextualized) clinical-BERT and
(non-contextualized) BioWordVec. We show that both embeddings are biased
towards sensitive gender groups but BioWordVec exhibits a higher bias than
clinical-BERT for all three categories. Moreover, our analyses show that
clinical embeddings carry a high degree of bias for some medical terms and
diseases which is conflicting with medical literature. Having such an
ill-founded relationship might cause harm in downstream applications that use
clinical embeddings.
- Abstract(参考訳): 臨床用語の埋め込みは様々なバイオNLP問題において最先端の特徴ベクトル表現として広く用いられている。
単語のセマンティック表現ではかなり成功したが、そのデータセットは統計的、社会的偏見を伴っている可能性があるため、訓練された上では性別のステレオタイプが現れるかもしれない。
本研究は, 精神疾患, 性感染症, 性格特性の3つの医療カテゴリーにおける, 臨床埋め込みの性別バイアスを分析した。
そこで本研究では,2種類の事前学習型埋め込み,すなわち臨床用BERTとBioWordVecを解析した。
いずれの埋め込みもセンシティブな性別グループに偏りがあることが示されるが、BioWordVecは3つのカテゴリーで臨床BERTよりも高い偏りを示す。
また,本研究は,医学文献と矛盾するいくつかの医学用語や疾患に対して,臨床埋め込みが高いバイアスを負うことを示した。
このような根拠のない関係を持つことは、臨床埋め込みを使用する下流アプリケーションに害をもたらす可能性がある。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - The effects of gender bias in word embeddings on depression prediction [4.393278098614867]
精神障害領域における抑うつカテゴリーに特有な4種類の事前学習単語埋め込みにおける性別バイアスの分析を行った。
埋め込みの種類によって異なる性別グループに対して、埋め込みが抑うつのバイアスをもたらすことが観察された。
ジェンダーワードを単に置き換えることによるデータ拡張は、下流タスクにおけるバイアスを大幅に軽減する。
論文 参考訳(メタデータ) (2022-12-15T14:19:33Z) - Assessing Group-level Gender Bias in Professional Evaluations: The Case
of Medical Student End-of-Shift Feedback [14.065979111248497]
女性医師は、上級職に不足しており、男性医師よりも収入が少なく、昇進も少ない傾向にある。
この研究は主に、LIWCのような固定辞書を用いて特定の単語を探し、レコメンデーションレターに焦点をあてることによって行われた。
複数の機関にまたがって収集された個別の勤務シフトにおける医学生の成績の書面的・定量的な評価データセットを用いて、医学生の日々の状況における男女差の程度を調査する。
論文 参考訳(メタデータ) (2022-06-01T05:01:36Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - A Survey on Gender Bias in Natural Language Processing [22.91475787277623]
自然言語処理における性別バイアスに関する304論文について調査する。
ジェンダーバイアスの検出と緩和に対するコントラストアプローチの比較を行った。
性別偏見の研究は、4つの中核的な限界に悩まされている。
論文 参考訳(メタデータ) (2021-12-28T14:54:18Z) - Clinical Named Entity Recognition using Contextualized Token
Representations [49.036805795072645]
本稿では,各単語の意味的意味をより正確に把握するために,文脈型単語埋め込み手法を提案する。
言語モデル(C-ELMo)とC-Flair(C-Flair)の2つの深い文脈型言語モデル(C-ELMo)を事前訓練する。
明示的な実験により、静的単語埋め込みとドメインジェネリック言語モデルの両方と比較して、我々のモデルは劇的に改善されている。
論文 参考訳(メタデータ) (2021-06-23T18:12:58Z) - Interpretable bias mitigation for textual data: Reducing gender bias in
patient notes while maintaining classification performance [0.11545092788508224]
2つの臨床ノートデータセットから性別付き言語を識別・除去する。
データ拡張による低~中レベルのバイアス除去のための健康状態分類タスクの最小劣化を示す。
本研究は,自然言語処理パイプラインにおけるバイアスを識別・低減するために,データ拡張を用いた解釈可能なアプローチを概説する。
論文 参考訳(メタデータ) (2021-03-10T03:09:30Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。