論文の概要: Gender Bias Hidden Behind Chinese Word Embeddings: The Case of Chinese
Adjectives
- arxiv url: http://arxiv.org/abs/2106.00181v1
- Date: Tue, 1 Jun 2021 02:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:26:49.571124
- Title: Gender Bias Hidden Behind Chinese Word Embeddings: The Case of Chinese
Adjectives
- Title(参考訳): ジェンダーバイアスを隠した中国語の単語埋め込み:中国語の形容詞を例に
- Authors: Meichun Jiao, Ziyang Luo
- Abstract要約: 本論文は,中国語形容詞の独特な視点から,静的単語埋め込みにおける性別バイアスについて検討する。
生成した結果と人間によって表されたデータセットを比較することで,単語埋め込みに符号化された性別バイアスが人々の態度とどのように異なるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gender bias in word embeddings gradually becomes a vivid research field in
recent years. Most studies in this field aim at measurement and debiasing
methods with English as the target language. This paper investigates gender
bias in static word embeddings from a unique perspective, Chinese adjectives.
By training word representations with different models, the gender bias behind
the vectors of adjectives is assessed. Through a comparison between the
produced results and a human-scored data set, we demonstrate how gender bias
encoded in word embeddings differentiates from people's attitudes.
- Abstract(参考訳): 単語埋め込みにおけるジェンダーバイアスは、近年徐々に鮮明な研究分野になりつつある。
この分野のほとんどの研究は、対象言語として英語を用いた測定と偏差法を目標としている。
本研究は,中国語形容詞における静的単語埋め込みにおける性別バイアスについて考察する。
異なるモデルで単語表現を訓練することにより、形容詞のベクトルの背後にある性別バイアスを評価する。
生成した結果と人称データセットを比較することで,単語埋め込みに符号化された性別バイアスが人々の態度とどのように異なるかを示す。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Measuring Gender Bias in Word Embeddings of Gendered Languages Requires
Disentangling Grammatical Gender Signals [3.0349733976070015]
単語埋め込みは、文法性のある言語における名詞とその文法性との関係を学習することを示した。
単語埋め込みから文法的ジェンダー信号を引き離すことは、セマンティック機械学習タスクの改善につながる可能性があることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:11:00Z) - A Survey on Gender Bias in Natural Language Processing [22.91475787277623]
自然言語処理における性別バイアスに関する304論文について調査する。
ジェンダーバイアスの検出と緩和に対するコントラストアプローチの比較を行った。
性別偏見の研究は、4つの中核的な限界に悩まされている。
論文 参考訳(メタデータ) (2021-12-28T14:54:18Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - An exploration of the encoding of grammatical gender in word embeddings [0.6461556265872973]
単語埋め込みに基づく文法性の研究は、文法性がどのように決定されるかについての議論の洞察を与えることができる。
スウェーデン語、デンマーク語、オランダ語の埋め込みにおいて、文法的な性別がどのように符号化されているかには重複があることが判明した。
論文 参考訳(メタデータ) (2020-08-05T06:01:46Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。