論文の概要: Mitigating Gender Stereotypes in Hindi and Marathi
- arxiv url: http://arxiv.org/abs/2205.05901v1
- Date: Thu, 12 May 2022 06:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 13:50:00.543665
- Title: Mitigating Gender Stereotypes in Hindi and Marathi
- Title(参考訳): ヒンディー語とマラタイ語におけるジェンダーステレオタイプ
- Authors: Neeraja Kirtane, Tanvi Anand
- Abstract要約: 本稿ではヒンディー語とマラティー語におけるジェンダーステレオタイプを評価する。
我々は、エンベディング・コヒーレンス・テスト(ECT)と相対ノルム距離(RND)の助けを借りて、中立的およびジェンダー化された職業語、感情語、および測定バイアスのデータセットを作成する。
実験の結果,提案手法は,これらの言語における性バイアスを減少させることがわかった。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the use of natural language processing increases in our day-to-day life,
the need to address gender bias inherent in these systems also amplifies. This
is because the inherent bias interferes with the semantic structure of the
output of these systems while performing tasks like machine translation. While
research is being done in English to quantify and mitigate bias, debiasing
methods in Indic Languages are either relatively nascent or absent for some
Indic languages altogether. Most Indic languages are gendered, i.e., each noun
is assigned a gender according to each language's grammar rules. As a
consequence, evaluation differs from what is done in English. This paper
evaluates the gender stereotypes in Hindi and Marathi languages. The
methodologies will differ from the ones in the English language because there
are masculine and feminine counterparts in the case of some words. We create a
dataset of neutral and gendered occupation words, emotion words and measure
bias with the help of Embedding Coherence Test (ECT) and Relative Norm Distance
(RND). We also attempt to mitigate this bias from the embeddings. Experiments
show that our proposed debiasing techniques reduce gender bias in these
languages.
- Abstract(参考訳): 自然言語処理の利用が日々の生活で増加するにつれ、これらのシステム固有のジェンダーバイアスに対処する必要性も増大する。
これは、固有のバイアスが、機械翻訳のようなタスクを実行しながら、これらのシステムの出力のセマンティック構造に干渉するためである。
偏見を定量化し緩和するために英語で研究が行われているが、インド語における偏見の手法は比較的初期段階か欠落している。
ほとんどのIndic言語はジェンダー化されており、各名詞は各言語の文法規則に従って性別が割り当てられる。
その結果、評価は英語で行われているものと異なる。
本稿ではヒンディー語とマラティ語の性ステレオタイプを評価する。
方法が英語のものと異なるのは、ある単語の場合、男性や女性と違いがあるからである。
我々は、エンベディング・コヒーレンス・テスト(ECT)と相対ノルム距離(RND)の助けを借りて、中立的およびジェンダー的な職業語、感情語、偏見を測定するデータセットを作成する。
また、このバイアスを埋め込みから軽減しようともしています。
提案手法は,これらの言語における性バイアスを低減できることを示す。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - Don't Overlook the Grammatical Gender: Bias Evaluation for Hindi-English
Machine Translation [0.0]
既存の評価ベンチマークは主に翻訳のソース言語としての英語に焦点を当てている。
英語以外のソース言語では、研究はしばしばバイアス評価のために性中立の文を用いる。
本研究は,ソースコード中の文法的ジェンダーマーカーを考慮に入れたバイアス評価テストセットの調整の重要性を強調した。
論文 参考訳(メタデータ) (2023-11-11T09:28:43Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Efficient Gender Debiasing of Pre-trained Indic Language Models [0.0]
言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T09:15:58Z) - Measuring Gender Bias in Word Embeddings of Gendered Languages Requires
Disentangling Grammatical Gender Signals [3.0349733976070015]
単語埋め込みは、文法性のある言語における名詞とその文法性との関係を学習することを示した。
単語埋め込みから文法的ジェンダー信号を引き離すことは、セマンティック機械学習タスクの改善につながる可能性があることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:11:00Z) - Evaluating Gender Bias in Hindi-English Machine Translation [0.1503974529275767]
我々は,ヒンディー語の文法的考察に基づいて,TGBI計量の修正版を実装した。
我々は、事前学習した埋め込みのための複数のメトリクスと、機械翻訳モデルで学習したメトリクスを比較して比較する。
論文 参考訳(メタデータ) (2021-06-16T10:35:51Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。