論文の概要: Measuring Gender Bias in Word Embeddings of Gendered Languages Requires
Disentangling Grammatical Gender Signals
- arxiv url: http://arxiv.org/abs/2206.01691v1
- Date: Fri, 3 Jun 2022 17:11:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 12:48:03.900752
- Title: Measuring Gender Bias in Word Embeddings of Gendered Languages Requires
Disentangling Grammatical Gender Signals
- Title(参考訳): 単語埋め込みにおけるジェンダーバイアスの測定 : 文法的ジェンダー信号のアンタングリング
- Authors: Shiva Omrani Sabbaghi, Aylin Caliskan
- Abstract要約: 単語埋め込みは、文法性のある言語における名詞とその文法性との関係を学習することを示した。
単語埋め込みから文法的ジェンダー信号を引き離すことは、セマンティック機械学習タスクの改善につながる可能性があることを示す。
- 参考スコア(独自算出の注目度): 3.0349733976070015
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Does the grammatical gender of a language interfere when measuring the
semantic gender information captured by its word embeddings? A number of
anomalous gender bias measurements in the embeddings of gendered languages
suggest this possibility. We demonstrate that word embeddings learn the
association between a noun and its grammatical gender in grammatically gendered
languages, which can skew social gender bias measurements. Consequently, word
embedding post-processing methods are introduced to quantify, disentangle, and
evaluate grammatical gender signals. The evaluation is performed on five
gendered languages from the Germanic, Romance, and Slavic branches of the
Indo-European language family. Our method reduces the strength of grammatical
gender signals, which is measured in terms of effect size (Cohen's d), by a
significant average of d = 1.3 for French, German, and Italian, and d = 0.56
for Polish and Spanish. Once grammatical gender is disentangled, the
association between over 90% of 10,000 inanimate nouns and their assigned
grammatical gender weakens, and cross-lingual bias results from the Word
Embedding Association Test (WEAT) become more congruent with country-level
implicit bias measurements. The results further suggest that disentangling
grammatical gender signals from word embeddings may lead to improvement in
semantic machine learning tasks.
- Abstract(参考訳): 単語埋め込みによって取得される意味性情報を測定する場合、言語の文法的性別は干渉するだろうか?
ジェンダー付き言語の埋め込みにおける異常な性別バイアスの測定は、この可能性を示唆している。
単語埋め込みは、名詞とその文法的ジェンダーとの関係を文法的ジェンダー言語で学習し、それが社会性バイアスの測定を歪めることを実証する。
その結果、単語埋め込み後処理法を導入し、文法的な性別信号の定量化、縮小、評価を行う。
この評価は、インド・ヨーロッパ語族のゲルマン語、ロマンス語、スラヴ語の5つの言語で行われている。
本手法は,フランス語,ドイツ語,イタリア語ではd = 1.3,ポーランド語とスペイン語ではd = 0.56と,効果サイズ (cohen's d) で測定される,文法的ジェンダー信号の強度を減少させる。
文法的性別が切り離されると、1万の単数名詞の90%以上と割り当てられた文法的性別の関連は弱まり、ワード埋め込み協会試験(WEAT)による言語的偏見は、国レベルの暗黙的偏見測定とより一致している。
さらに,単語埋め込みから文法的ジェンダー信号を遠ざけることで,セマンティック機械学習タスクの改善につながる可能性が示唆された。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - The Causal Influence of Grammatical Gender on Distributional Semantics [87.8027818528463]
言語間のジェンダー割り当てがどの程度意味を持つかは、言語学と認知科学における研究の活発な領域である。
我々は、名詞の文法的性別、意味、形容詞選択の間の相互作用を共同で表現する、新しい因果的グラフィカルモデルを提供する。
名詞の意味を制御した場合、文法的性別と形容詞的選択の関係は、ほぼゼロであり、無意味である。
論文 参考訳(メタデータ) (2023-11-30T13:58:13Z) - Don't Overlook the Grammatical Gender: Bias Evaluation for Hindi-English
Machine Translation [0.0]
既存の評価ベンチマークは主に翻訳のソース言語としての英語に焦点を当てている。
英語以外のソース言語では、研究はしばしばバイアス評価のために性中立の文を用いる。
本研究は,ソースコード中の文法的ジェンダーマーカーを考慮に入れたバイアス評価テストセットの調整の重要性を強調した。
論文 参考訳(メタデータ) (2023-11-11T09:28:43Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information [4.391102490444539]
英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
論文 参考訳(メタデータ) (2022-06-21T21:38:25Z) - Mitigating Gender Stereotypes in Hindi and Marathi [1.2891210250935146]
本稿ではヒンディー語とマラティー語におけるジェンダーステレオタイプを評価する。
我々は、エンベディング・コヒーレンス・テスト(ECT)と相対ノルム距離(RND)の助けを借りて、中立的およびジェンダー化された職業語、感情語、および測定バイアスのデータセットを作成する。
実験の結果,提案手法は,これらの言語における性バイアスを減少させることがわかった。
論文 参考訳(メタデータ) (2022-05-12T06:46:53Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Neural Machine Translation Doesn't Translate Gender Coreference Right
Unless You Make It [18.148675498274866]
ニューラル・マシン・トランスフォーメーションに明示的な単語レベルのジェンダー・インフレクション・タグを組み込む手法を提案する。
既存の単純なアプローチは、文中の複数のエンティティにジェンダー・フィーチャーを過度に一般化することができる。
また,英語のジェンダーニュートラルな実体の翻訳を,それに対応する言語規則で評価する拡張も提案する。
論文 参考訳(メタデータ) (2020-10-11T20:05:42Z) - An exploration of the encoding of grammatical gender in word embeddings [0.6461556265872973]
単語埋め込みに基づく文法性の研究は、文法性がどのように決定されるかについての議論の洞察を与えることができる。
スウェーデン語、デンマーク語、オランダ語の埋め込みにおいて、文法的な性別がどのように符号化されているかには重複があることが判明した。
論文 参考訳(メタデータ) (2020-08-05T06:01:46Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。