論文の概要: A Survey on Gender Bias in Natural Language Processing
- arxiv url: http://arxiv.org/abs/2112.14168v1
- Date: Tue, 28 Dec 2021 14:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:48:08.858634
- Title: A Survey on Gender Bias in Natural Language Processing
- Title(参考訳): 自然言語処理におけるジェンダーバイアスに関する調査
- Authors: Karolina Stanczak, Isabelle Augenstein
- Abstract要約: 自然言語処理における性別バイアスに関する304論文について調査する。
ジェンダーバイアスの検出と緩和に対するコントラストアプローチの比較を行った。
性別偏見の研究は、4つの中核的な限界に悩まされている。
- 参考スコア(独自算出の注目度): 22.91475787277623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language can be used as a means of reproducing and enforcing harmful
stereotypes and biases and has been analysed as such in numerous research. In
this paper, we present a survey of 304 papers on gender bias in natural
language processing. We analyse definitions of gender and its categories within
social sciences and connect them to formal definitions of gender bias in NLP
research. We survey lexica and datasets applied in research on gender bias and
then compare and contrast approaches to detecting and mitigating gender bias.
We find that research on gender bias suffers from four core limitations. 1)
Most research treats gender as a binary variable neglecting its fluidity and
continuity. 2) Most of the work has been conducted in monolingual setups for
English or other high-resource languages. 3) Despite a myriad of papers on
gender bias in NLP methods, we find that most of the newly developed algorithms
do not test their models for bias and disregard possible ethical considerations
of their work. 4) Finally, methodologies developed in this line of research are
fundamentally flawed covering very limited definitions of gender bias and
lacking evaluation baselines and pipelines. We suggest recommendations towards
overcoming these limitations as a guide for future research.
- Abstract(参考訳): 言語は有害なステレオタイプやバイアスを再現・強制する手段として使用することができ、多くの研究で分析されている。
本稿では,自然言語処理におけるジェンダーバイアスに関する304論文について調査する。
社会科学におけるジェンダーとそのカテゴリーの定義を分析し,nlp研究におけるジェンダーバイアスの形式的定義と結びつける。
ジェンダーバイアスの研究に応用されたレキシカとデータセットを調査し、ジェンダーバイアスの検出と緩和のためのコントラストアプローチを比較した。
性別偏見の研究は4つの限界に悩まされている。
1)ほとんどの研究は, ジェンダーを流動性と連続性を無視した二変数変数として扱う。
2) ほとんどの作業は英語や他の高資源言語に対して単言語で実施されている。
3) NLP法における性別バイアスに関する論文は無数にあるが, 新たに開発されたアルゴリズムのほとんどは, 偏見のモデルを試さず, 倫理的考察を無視している。
4) 最後に, この研究で開発された手法は, 男女差の非常に限定的な定義と, 評価基準とパイプラインの欠如に根本的な欠陥がある。
今後の研究の指針として,これらの制限を克服するための勧告を提案する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Theories of "Gender" in NLP Bias Research [0.0]
NLPにおけるジェンダーバイアスに関する200近い記事を調査した。
記事の大多数は、性別に関する理論を明示していない。
多くの人は、トランス、ノンバイナリ、インターセックスの人々の存在と経験を無視した方法で、性の特徴、社会的性別、言語性について説明している。
論文 参考訳(メタデータ) (2022-05-05T09:20:53Z) - Sexism in the Judiciary [0.0]
我々は670万件の訴訟法文書を分析し、司法制度における性別バイアスの存在を判断する。
NLPにおける現在のバイアス検出法は、我々の事例法データベースにおける性別バイアスを決定するのに不十分であることがわかった。
論文 参考訳(メタデータ) (2021-06-29T05:38:53Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。