論文の概要: Efficient Gender Debiasing of Pre-trained Indic Language Models
- arxiv url: http://arxiv.org/abs/2209.03661v1
- Date: Thu, 8 Sep 2022 09:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:54:53.667004
- Title: Efficient Gender Debiasing of Pre-trained Indic Language Models
- Title(参考訳): 事前学習したインデックス言語モデルの効率的ジェンダーデバイアス
- Authors: Neeraja Kirtane, V Manushree, Aditya Kane
- Abstract要約: 言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The gender bias present in the data on which language models are pre-trained
gets reflected in the systems that use these models. The model's intrinsic
gender bias shows an outdated and unequal view of women in our culture and
encourages discrimination. Therefore, in order to establish more equitable
systems and increase fairness, it is crucial to identify and mitigate the bias
existing in these models. While there is a significant amount of work in this
area in English, there is a dearth of research being done in other gendered and
low resources languages, particularly the Indian languages. English is a
non-gendered language, where it has genderless nouns. The methodologies for
bias detection in English cannot be directly deployed in other gendered
languages, where the syntax and semantics vary. In our paper, we measure gender
bias associated with occupations in Hindi language models. Our major
contributions in this paper are the construction of a novel corpus to evaluate
occupational gender bias in Hindi, quantify this existing bias in these systems
using a well-defined metric, and mitigate it by efficiently fine-tuning our
model. Our results reflect that the bias is reduced post-introduction of our
proposed mitigation techniques. Our codebase is available publicly.
- Abstract(参考訳): 言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
モデル固有の性バイアスは、我々の文化における女性の時代遅れで不平等な見方を示し、差別を促進する。
したがって、より公平なシステムを確立し公平性を高めるためには、これらのモデルに存在するバイアスを特定し緩和することが不可欠である。
英語ではこの分野にはかなりの量の研究があるが、他のジェンダーや低資源の言語、特にインド諸言語で研究が行われている。
英語は性のない名詞を持つ非性言語である。
英語におけるバイアス検出の方法論は、構文や意味が変化する他のジェンダー言語では直接デプロイできない。
本稿では,ヒンズー語モデルにおける職業に関連するジェンダーバイアスを測定する。
本稿では,ヒンディー語の職業性バイアスを評価するための新しいコーパスの構築と,これらのシステムにおける既存のバイアスをよく定義されたメトリックを用いて定量化し,モデルを効率的に微調整することにより緩和する。
提案手法の適応後, バイアスが低減されることが示唆された。
私たちのコードベースは公開されています。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Investigating Gender Bias in Turkish Language Models [3.100560442806189]
トルコ語モデルにおけるジェンダーバイアスの重要性について検討する。
我々は既存のバイアス評価フレームワークを構築し、それらをトルコ語に拡張する。
具体的には、クルド人の民族的偏見を埋め込んだトルコ語モデルを評価する。
論文 参考訳(メタデータ) (2024-04-17T20:24:41Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - DiFair: A Benchmark for Disentangled Assessment of Gender Knowledge and
Bias [13.928591341824248]
事前訓練された言語モデルでよく見られる性別バイアスを軽減するために、デバイアス技術が提案されている。
これらはしばしば、予測においてモデルが性中立である範囲をチェックするデータセットで評価される。
この評価プロトコルは、バイアス緩和が有意義なジェンダー知識に悪影響を及ぼす可能性を見落としている。
論文 参考訳(メタデータ) (2023-10-22T15:27:16Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Evaluating Gender Bias in Hindi-English Machine Translation [0.1503974529275767]
我々は,ヒンディー語の文法的考察に基づいて,TGBI計量の修正版を実装した。
我々は、事前学習した埋め込みのための複数のメトリクスと、機械翻訳モデルで学習したメトリクスを比較して比較する。
論文 参考訳(メタデータ) (2021-06-16T10:35:51Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。