論文の概要: A Comprehensive Study of Gender Bias in Chemical Named Entity
Recognition Models
- arxiv url: http://arxiv.org/abs/2212.12799v2
- Date: Wed, 13 Mar 2024 17:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 19:26:32.347134
- Title: A Comprehensive Study of Gender Bias in Chemical Named Entity
Recognition Models
- Title(参考訳): ケミカルネームエンティティにおけるジェンダーバイアスの総合的研究
認識モデル
- Authors: Xingmeng Zhao, Ali Niazi and Anthony Rios
- Abstract要約: 本稿では, 化学NERシステムにおけるジェンダー関連性能格差について検討する。
合成データは、女性関連の名前がしばしば化学物質として誤分類されることを示唆している。
多くのシステムは、出生制御のような避妊薬を検出できない。
- 参考スコア(独自算出の注目度): 8.994959309546065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chemical named entity recognition (NER) models are used in many downstream
tasks, from adverse drug reaction identification to pharmacoepidemiology.
However, it is unknown whether these models work the same for everyone.
Performance disparities can potentially cause harm rather than the intended
good. This paper assesses gender-related performance disparities in chemical
NER systems. We develop a framework for measuring gender bias in chemical NER
models using synthetic data and a newly annotated corpus of over 92,405 words
with self-identified gender information from Reddit. Our evaluation of multiple
biomedical NER models reveals evident biases. For instance, synthetic data
suggests female-related names are frequently misclassified as chemicals,
especially for brand name mentions. Additionally, we observe performance
disparities between female- and male-associated data in both datasets. Many
systems fail to detect contraceptives such as birth control. Our findings
emphasize the biases in chemical NER models, urging practitioners to account
for these biases in downstream applications.
- Abstract(参考訳): ケミカルネームエンティティ認識(NER)モデルは、有害薬物反応の同定から薬剤疫学まで、多くの下流タスクで使用されている。
しかし、これらのモデルが全員で同じように動作するかどうかは不明である。
パフォーマンスの格差は、意図された善よりも害を引き起こす可能性がある。
本稿では, 化学NERシステムにおけるジェンダー関連性能格差について検討する。
合成データを用いて化学NERモデルの性別バイアスを測定するためのフレームワークを開発し、Redditから92,405語以上の注釈付きコーパスを同定した。
バイオメディカルNERモデルによる評価は明らかな偏見を呈する。
例えば、合成データでは、女性関連の名前はしばしば化学物質、特にブランド名について誤分類されていることを示唆している。
さらに,両データセットにおける男女関連データのパフォーマンス格差も観察した。
多くのシステムは、出生制御のような避妊薬を検出できない。
我々の研究は, 化学NERモデルのバイアスを強調し, 下流の応用においてこれらのバイアスを考慮するよう実践者に促した。
関連論文リスト
- Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging [0.3958317527488534]
脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
異なる実験設計を考慮に入れた脳年齢予測を行い,性別の影響について検討した。
異なる性別サブグループとデータセットで訓練した脳年齢予測モデルの性能に相違が認められた。
論文 参考訳(メタデータ) (2023-10-17T20:55:53Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Are Sex-based Physiological Differences the Cause of Gender Bias for
Chest X-ray Diagnosis? [2.1601966913620325]
機械学習を用いた胸部X線診断における性別バイアスの原因について検討した。
特に,乳房組織が肺の露出不足につながるという仮説を考察する。
広範に利用されている2つの公開データセットにおける患者1人あたりの録音の高度に歪んだ分布に対処する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T10:19:51Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Exploring Gender Bias in Retrieval Models [2.594412743115663]
情報検索におけるジェンダーバイアスの緩和は,ステレオタイプの普及を避けるために重要である。
本研究では,(1)クエリに対するドキュメントの関連性,(2)ドキュメントの“ジェンダー”という2つのコンポーネントからなるデータセットを用いる。
我々は,大容量のBERTエンコーダの完全微調整を行う場合,IRの事前学習モデルはゼロショット検索タスクではうまく動作しないことを示す。
また、事前学習されたモデルには性別バイアスがあり、検索された記事は女性よりも男性が多い傾向にあることを示した。
論文 参考訳(メタデータ) (2022-08-02T21:12:05Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。