論文の概要: Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models
- arxiv url: http://arxiv.org/abs/2104.07505v1
- Date: Thu, 15 Apr 2021 15:03:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:14:32.272342
- Title: Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models
- Title(参考訳): 言語横断モデルを用いたジェンダーバイアスの定量化
- Authors: Karolina Sta\'nczak, Sagnik Ray Choudhury, Tiago Pimentel, Ryan
Cotterell, Isabelle Augenstein
- Abstract要約: 世界のほとんどの国から250万人の政治家のデータセットを構築しています。
我々は、その政治家の名前にまつわる形容詞と動詞の用法を、性別の関数として定量化する。
以上の結果から,事前訓練された言語モデルにおける政治家に対する態度は,使用する言語に大きく依存することが示された。
- 参考スコア(独自算出の注目度): 52.26915878371941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the prevalence of large pre-trained language models has led to
significant improvements in the performance of NLP systems, recent research has
demonstrated that these models inherit societal biases extant in natural
language. In this paper, we explore a simple method to probe pre-trained
language models for gender bias, which we use to effect a multi-lingual study
of gender bias towards politicians. We construct a dataset of 250k politicians
from most countries in the world and quantify adjective and verb usage around
those politicians' names as a function of their gender. We conduct our study in
7 languages across 6 different language modeling architectures. Our results
demonstrate that stance towards politicians in pre-trained language models is
highly dependent on the language used. Finally, contrary to previous findings,
our study suggests that larger language models do not tend to be significantly
more gender-biased than smaller ones.
- Abstract(参考訳): 大規模な事前学習型言語モデルの普及により、NLPシステムの性能は大幅に改善されているが、近年の研究では、これらのモデルが自然言語における社会的バイアスを継承していることが示されている。
本稿では,ジェンダーバイアスに関する多言語研究を政治家に対して実施するために,ジェンダーバイアスに関する事前学習言語モデルを簡易に探索する手法を提案する。
我々は、世界中のほとんどの国から250万人の政治家のデータセットを構築し、それらの政治家の名前に関する形容詞と動詞の使用量を性別の機能として定量化する。
我々は6つの異なる言語モデリングアーキテクチャで7つの言語で研究を行っている。
以上の結果から,事前学習言語モデルにおける政治家に対する態度は,使用言語に大きく依存していることが示唆された。
最後に,これまでの研究とは対照的に,より大きな言語モデルでは,より小さい言語モデルよりも男女関係の偏りが強くない傾向が示唆された。
関連論文リスト
- What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - How Gender Interacts with Political Values: A Case Study on Czech BERT Models [0.0]
このケーススタディは、チェコの事前訓練エンコーダの政治的バイアスに焦点を当てている。
チェコ語は性的な言語であるため、調査における男女の反応と文法的な性別がどのように一致しているかを測定する。
モデルが値駆動推論に従って文の確率を割り当てていないことが分かる。
論文 参考訳(メタデータ) (2024-03-20T11:30:45Z) - Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Measuring Gender Bias in West Slavic Language Models [41.49834421110596]
チェコ語、ポーランド語、スロバキア語で最初のテンプレートベースのデータセットを導入し、男性、女性、非バイナリー対象に対する性別バイアスを測定した。
生成した単語の毒性と性差を定量化することにより、西スラヴ語モデルで符号化された性別バイアスを測定する。
これらの言語モデルは、被験者の性別に依存する有害な完成物を生成する。
論文 参考訳(メタデータ) (2023-04-12T11:49:43Z) - Efficient Gender Debiasing of Pre-trained Indic Language Models [0.0]
言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T09:15:58Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。