論文の概要: Efficient Gender Debiasing of Pre-trained Indic Language Models
- arxiv url: http://arxiv.org/abs/2209.03661v1
- Date: Thu, 8 Sep 2022 09:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:54:53.667004
- Title: Efficient Gender Debiasing of Pre-trained Indic Language Models
- Title(参考訳): 事前学習したインデックス言語モデルの効率的ジェンダーデバイアス
- Authors: Neeraja Kirtane, V Manushree, Aditya Kane
- Abstract要約: 言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The gender bias present in the data on which language models are pre-trained
gets reflected in the systems that use these models. The model's intrinsic
gender bias shows an outdated and unequal view of women in our culture and
encourages discrimination. Therefore, in order to establish more equitable
systems and increase fairness, it is crucial to identify and mitigate the bias
existing in these models. While there is a significant amount of work in this
area in English, there is a dearth of research being done in other gendered and
low resources languages, particularly the Indian languages. English is a
non-gendered language, where it has genderless nouns. The methodologies for
bias detection in English cannot be directly deployed in other gendered
languages, where the syntax and semantics vary. In our paper, we measure gender
bias associated with occupations in Hindi language models. Our major
contributions in this paper are the construction of a novel corpus to evaluate
occupational gender bias in Hindi, quantify this existing bias in these systems
using a well-defined metric, and mitigate it by efficiently fine-tuning our
model. Our results reflect that the bias is reduced post-introduction of our
proposed mitigation techniques. Our codebase is available publicly.
- Abstract(参考訳): 言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
モデル固有の性バイアスは、我々の文化における女性の時代遅れで不平等な見方を示し、差別を促進する。
したがって、より公平なシステムを確立し公平性を高めるためには、これらのモデルに存在するバイアスを特定し緩和することが不可欠である。
英語ではこの分野にはかなりの量の研究があるが、他のジェンダーや低資源の言語、特にインド諸言語で研究が行われている。
英語は性のない名詞を持つ非性言語である。
英語におけるバイアス検出の方法論は、構文や意味が変化する他のジェンダー言語では直接デプロイできない。
本稿では,ヒンズー語モデルにおける職業に関連するジェンダーバイアスを測定する。
本稿では,ヒンディー語の職業性バイアスを評価するための新しいコーパスの構築と,これらのシステムにおける既存のバイアスをよく定義されたメトリックを用いて定量化し,モデルを効率的に微調整することにより緩和する。
提案手法の適応後, バイアスが低減されることが示唆された。
私たちのコードベースは公開されています。
関連論文リスト
- Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - DiFair: A Benchmark for Disentangled Assessment of Gender Knowledge and
Bias [13.928591341824248]
事前訓練された言語モデルでよく見られる性別バイアスを軽減するために、デバイアス技術が提案されている。
これらはしばしば、予測においてモデルが性中立である範囲をチェックするデータセットで評価される。
この評価プロトコルは、バイアス緩和が有意義なジェンダー知識に悪影響を及ぼす可能性を見落としている。
論文 参考訳(メタデータ) (2023-10-22T15:27:16Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Investigating Cross-Linguistic Gender Bias in Hindi-English Across
Domains [0.0]
我々はこのバイアスをヒンディー語で測定し研究することを目指しており、これは低階言語である英語に言及した高階言語である。
これを達成するために、ドメイン間のバリエーションを調査し、ドメイン埋め込みが、この2つのヒンディー語モデルに対するジェンダーバイアスについての洞察を得られるかどうかを定量化する。
論文 参考訳(メタデータ) (2021-11-22T12:55:36Z) - Evaluating Gender Bias in Hindi-English Machine Translation [0.1503974529275767]
我々は,ヒンディー語の文法的考察に基づいて,TGBI計量の修正版を実装した。
我々は、事前学習した埋め込みのための複数のメトリクスと、機械翻訳モデルで学習したメトリクスを比較して比較する。
論文 参考訳(メタデータ) (2021-06-16T10:35:51Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。