論文の概要: Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models
- arxiv url: http://arxiv.org/abs/2104.07505v2
- Date: Thu, 9 Nov 2023 16:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 19:25:02.529550
- Title: Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models
- Title(参考訳): 言語横断モデルを用いたジェンダーバイアスの定量化
- Authors: Karolina Sta\'nczak, Sagnik Ray Choudhury, Tiago Pimentel, Ryan
Cotterell, Isabelle Augenstein
- Abstract要約: 代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
- 参考スコア(独自算出の注目度): 104.41668491794974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has demonstrated that large pre-trained language models
reflect societal biases expressed in natural language. The present paper
introduces a simple method for probing language models to conduct a
multilingual study of gender bias towards politicians. We quantify the usage of
adjectives and verbs generated by language models surrounding the names of
politicians as a function of their gender. To this end, we curate a dataset of
250k politicians worldwide, including their names and gender. Our study is
conducted in seven languages across six different language modeling
architectures. The results demonstrate that pre-trained language models' stance
towards politicians varies strongly across analyzed languages. We find that
while some words such as dead, and designated are associated with both male and
female politicians, a few specific words such as beautiful and divorced are
predominantly associated with female politicians. Finally, and contrary to
previous findings, our study suggests that larger language models do not tend
to be significantly more gender-biased than smaller ones.
- Abstract(参考訳): 最近の研究では、大きな事前学習された言語モデルが自然言語で表現される社会的バイアスを反映していることが示されている。
本稿では,政治家に対するジェンダーバイアスの多言語研究を行うための言語モデル探索手法を提案する。
政治家の名前を取り囲む言語モデルによって生成される形容詞や動詞の使用を性別の関数として定量化する。
この目的のために、我々は世界中の250万の政治家のデータセットをキュレートする。
本研究は、6つの異なる言語モデリングアーキテクチャの7言語で実施されている。
その結果、事前訓練された言語モデルによる政治家に対する態度は、分析された言語間で強く異なることが示された。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが分かる。
最後に,これまでの研究とは対照的に,より大きな言語モデルでは,より小さい言語モデルよりも男女関係の偏りが強くない傾向が示唆された。
関連論文リスト
- What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - How Gender Interacts with Political Values: A Case Study on Czech BERT Models [0.0]
このケーススタディは、チェコの事前訓練エンコーダの政治的バイアスに焦点を当てている。
チェコ語は性的な言語であるため、調査における男女の反応と文法的な性別がどのように一致しているかを測定する。
モデルが値駆動推論に従って文の確率を割り当てていないことが分かる。
論文 参考訳(メタデータ) (2024-03-20T11:30:45Z) - Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Measuring Gender Bias in West Slavic Language Models [41.49834421110596]
チェコ語、ポーランド語、スロバキア語で最初のテンプレートベースのデータセットを導入し、男性、女性、非バイナリー対象に対する性別バイアスを測定した。
生成した単語の毒性と性差を定量化することにより、西スラヴ語モデルで符号化された性別バイアスを測定する。
これらの言語モデルは、被験者の性別に依存する有害な完成物を生成する。
論文 参考訳(メタデータ) (2023-04-12T11:49:43Z) - Efficient Gender Debiasing of Pre-trained Indic Language Models [0.0]
言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T09:15:58Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。