論文の概要: A Comprehensive Study of Gender Bias in Chemical Named Entity
Recognition Models
- arxiv url: http://arxiv.org/abs/2212.12799v1
- Date: Sat, 24 Dec 2022 18:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:15:02.979235
- Title: A Comprehensive Study of Gender Bias in Chemical Named Entity
Recognition Models
- Title(参考訳): 化学名前付きエンティティ認識モデルにおけるジェンダーバイアスの総合的研究
- Authors: Xingmeng Zhao, Ali Niazi and Anthony Rios
- Abstract要約: 我々は,化学NERモデルにおける性別バイアスを測定する枠組みを開発した。
我々は、最先端のバイオメディカルNERモデルを適用し、評価する。
- 参考スコア(独自算出の注目度): 10.747730585681614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective. Chemical named entity recognition (NER) models have the potential
to impact a wide range of downstream tasks, from identifying adverse drug
reactions to general pharmacoepidemiology. However, it is unknown whether these
models work the same for everyone. Performance disparities can potentially
cause harm rather than the intended good. Hence, in this paper, we measure
gender-related performance disparities of chemical NER systems.
Materials and Methods. We develop a framework to measure gender bias in
chemical NER models using synthetic data and a newly annotated dataset of over
92,405 words with self-identified gender information from Reddit. We applied
and evaluated state-of-the-art biomedical NER models.
Results. Our findings indicate that chemical NER models are biased. The
results of the bias tests on the synthetic dataset and the real-world data
multiple fairness issues. For example, for synthetic data, we find that
female-related names are generally classified as chemicals, particularly in
datasets containing many brand names rather than standard ones. For both
datasets, we find consistent fairness issues resulting in substantial
performance disparities between female- and male-related data.
Discussion. Our study highlights the issue of biases in chemical NER models.
For example, we find that many systems cannot detect contraceptives (e.g.,
birth control).
Conclusion. Chemical NER models are biased and can be harmful to
female-related groups. Therefore, practitioners should carefully consider the
potential biases of these models and take steps to mitigate them.
- Abstract(参考訳): 目的。
ケミカルネームエンティティ認識(NER)モデルは、有害薬物反応の同定から一般的な薬剤疫学まで、幅広い下流タスクに影響を与える可能性がある。
しかし、これらのモデルが全員で同じように動作するかどうかは不明である。
パフォーマンスの格差は、意図された善よりも害を引き起こす可能性がある。
そこで本研究では, 化学NERシステムの性関連性能格差を計測する。
材料と方法。
我々は合成データを用いて化学NERモデルの性別バイアスを測定するためのフレームワークを開発し、Redditから92,405語以上の注釈付きデータセットを作成した。
バイオメディカルNERモデルの応用と評価を行った。
結果だ
以上の結果から, 化学NERモデルに偏りがあることが示唆された。
バイアステストの結果は、合成データセットと現実世界のデータ多重フェアネス問題に対して行われた。
例えば、合成データでは、女性関連の名称は一般的に化学薬品に分類され、特に標準的な名前ではなく、多くのブランド名を含むデータセットで用いられる。
両方のデータセットについて、一貫性のある公平性の問題に気付き、女性と男性に関するデータでかなりのパフォーマンスの差が生じます。
議論だ
本研究は化学NERモデルにおけるバイアスの問題に焦点を当てる。
例えば、多くのシステムは避妊薬(例えば、出生制御)を検出できない。
結論だ
化学NERモデルは偏りがあり、女性関連グループに有害である。
したがって、実践者はこれらのモデルの潜在的なバイアスを慎重に考慮し、それらを緩和するためのステップを講じるべきである。
関連論文リスト
- Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging [0.3958317527488534]
脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
異なる実験設計を考慮に入れた脳年齢予測を行い,性別の影響について検討した。
異なる性別サブグループとデータセットで訓練した脳年齢予測モデルの性能に相違が認められた。
論文 参考訳(メタデータ) (2023-10-17T20:55:53Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Are Sex-based Physiological Differences the Cause of Gender Bias for
Chest X-ray Diagnosis? [2.1601966913620325]
機械学習を用いた胸部X線診断における性別バイアスの原因について検討した。
特に,乳房組織が肺の露出不足につながるという仮説を考察する。
広範に利用されている2つの公開データセットにおける患者1人あたりの録音の高度に歪んだ分布に対処する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T10:19:51Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Exploring Gender Bias in Retrieval Models [2.594412743115663]
情報検索におけるジェンダーバイアスの緩和は,ステレオタイプの普及を避けるために重要である。
本研究では,(1)クエリに対するドキュメントの関連性,(2)ドキュメントの“ジェンダー”という2つのコンポーネントからなるデータセットを用いる。
我々は,大容量のBERTエンコーダの完全微調整を行う場合,IRの事前学習モデルはゼロショット検索タスクではうまく動作しないことを示す。
また、事前学習されたモデルには性別バイアスがあり、検索された記事は女性よりも男性が多い傾向にあることを示した。
論文 参考訳(メタデータ) (2022-08-02T21:12:05Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。