論文の概要: Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information
- arxiv url: http://arxiv.org/abs/2206.10744v1
- Date: Tue, 21 Jun 2022 21:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 07:59:08.777227
- Title: Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information
- Title(参考訳): 代名詞を忘れるな - 実性情報を失うことなく言語モデルで性バイアスを除去する
- Authors: Tomasz Limisiewicz and David Mare\v{c}ek
- Abstract要約: 英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
- 参考スコア(独自算出の注目度): 4.391102490444539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The representations in large language models contain multiple types of gender
information. We focus on two types of such signals in English texts: factual
gender information, which is a grammatical or semantic property, and gender
bias, which is the correlation between a word and specific gender. We can
disentangle the model's embeddings and identify components encoding both types
of information with probing. We aim to diminish the stereotypical bias in the
representations while preserving the factual gender signal. Our filtering
method shows that it is possible to decrease the bias of gender-neutral
profession names without significant deterioration of language modeling
capabilities. The findings can be applied to language generation to mitigate
reliance on stereotypes while preserving gender agreement in coreferences.
- Abstract(参考訳): 大規模言語モデルの表現は、複数の種類の性別情報を含んでいる。
英語のテキストでは、文法的または意味的な特性である事実性情報と、単語と特定の性別の相関である性別バイアスの2つのタイプに注目する。
モデルの埋め込みを分解し、両方の種類の情報をプロービングでエンコードするコンポーネントを識別できる。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
本手法は,言語モデリング能力の大幅な低下を伴わずに,性別中立の職業名のバイアスを低減できることを示す。
本研究は, 言語生成に応用し, ステレオタイプへの依存を軽減し, コア推論における性別合意を維持した。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Investigating grammatical abstraction in language models using few-shot learning of novel noun gender [0.0]
我々は,LSTMとデコーダのみのトランスフォーマーが,フランス語の文法的ジェンダーを人間のように抽象化できるかどうかを評価するために名詞学習実験を行った。
両言語モデルが一対二の学習例から新約名詞のジェンダーを効果的に一般化し,合意文脈にまたがって学習したジェンダーを適用した。
モデルの一般化行動は、それらが人間のように文法的な性別を抽象的なカテゴリーとして表現していることを示しているが、詳細を探求するにはさらなる作業が必要である。
論文 参考訳(メタデータ) (2024-03-15T14:25:59Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Lost In Translation: How Bridging The Gap Between Languages
Affects Gender Bias in Zero-Shot Multilingual Translation [12.376309678270275]
並列データが利用できない言語間のギャップを埋めることは、多言語NTTの性別バイアスに影響を与える。
本研究では, 言語に依存しない隠蔽表現が, ジェンダーの保存能力に及ぼす影響について検討した。
言語に依存しない表現は、ゼロショットモデルの男性バイアスを緩和し、ブリッジ言語におけるジェンダーインフレクションのレベルが増加し、話者関連性合意に対するより公平なジェンダー保存に関するゼロショット翻訳を超越することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:51:50Z) - Model-Agnostic Gender Debiased Image Captioning [29.640940966944697]
イメージキャプションモデルは、トレーニングセットにおける有害な社会的バイアスを永続化し、増幅することが知られている。
我々は、合成バイアスされたサンプルから学習し、両方のバイアスを減少させるLIBRAというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:30:49Z) - Measuring Gender Bias in Word Embeddings of Gendered Languages Requires
Disentangling Grammatical Gender Signals [3.0349733976070015]
単語埋め込みは、文法性のある言語における名詞とその文法性との関係を学習することを示した。
単語埋め込みから文法的ジェンダー信号を引き離すことは、セマンティック機械学習タスクの改善につながる可能性があることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:11:00Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。