論文の概要: Dual Debiasing: Remove Stereotypes and Keep Factual Gender for Fair Language Modeling and Translation
- arxiv url: http://arxiv.org/abs/2501.10150v2
- Date: Thu, 30 Jan 2025 20:11:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 13:59:55.324601
- Title: Dual Debiasing: Remove Stereotypes and Keep Factual Gender for Fair Language Modeling and Translation
- Title(参考訳): Dual Debiasing: ステレオタイプを取り除き、公正な言語モデリングと翻訳のための現実的なジェンダーを維持する
- Authors: Tomasz Limisiewicz, David Mareček, Tomáš Musil,
- Abstract要約: 言語モデルがジェンダーステレオタイプに依存しているようなバイアスの緩和は、信頼性と有用な言語技術の創造に必要な重要な取り組みである。
モデル適応による2次元ダビアシングアルゴリズム(2DAMA)を提案する。
2DAMAは、英語における性バイアスを効果的に低減し、翻訳におけるステレオタイプ傾向の緩和への最初のアプローチの一つであることを示す。
- 参考スコア(独自算出の注目度): 5.482673673984126
- License:
- Abstract: Mitigation of biases, such as language models' reliance on gender stereotypes, is a crucial endeavor required for the creation of reliable and useful language technology. The crucial aspect of debiasing is to ensure that the models preserve their versatile capabilities, including their ability to solve language tasks and equitably represent various genders. To address this issue, we introduce a streamlined Dual Dabiasing Algorithm through Model Adaptation (2DAMA). Novel Dual Debiasing enables robust reduction of stereotypical bias while preserving desired factual gender information encoded by language models. We show that 2DAMA effectively reduces gender bias in English and is one of the first approaches facilitating the mitigation of stereotypical tendencies in translation. The proposed method's key advantage is the preservation of factual gender cues, which are useful in a wide range of natural language processing tasks.
- Abstract(参考訳): 言語モデルがジェンダーステレオタイプに依存しているようなバイアスの緩和は、信頼性と有用な言語技術の創造に必要な重要な取り組みである。
偏見の最も重要な側面は、モデルが言語課題を解決し、様々な性別を公平に表現する能力を含む、その汎用能力を確実に維持することである。
この問題に対処するため,モデル適応 (2DAMA) を用いた2次元ダビアシングアルゴリズムを提案する。
新たなデュアルデバイアスは、言語モデルによって符号化された望ましい事実性情報を保持しながら、ステレオタイプバイアスの堅牢な低減を可能にする。
2DAMAは、英語における性バイアスを効果的に低減し、翻訳におけるステレオタイプ傾向の緩和を促進する最初のアプローチの1つである。
提案手法の主な利点は,多岐にわたる自然言語処理タスクにおいて有用である,事実的ジェンダー手がかりの保存である。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
テキストコーパスにおけるジェンダーバイアスは、社会的不平等の永続性と増幅につながる可能性がある。
テキストコーパスにおけるジェンダー表現バイアスを計測する既存の手法は、主に英語で提案されている。
本稿では,スペインのコーパスにおけるジェンダー表現バイアスを定量的に測定する手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - Efficient Gender Debiasing of Pre-trained Indic Language Models [0.0]
言語モデルが事前訓練されたデータに存在する性別バイアスは、これらのモデルを使用するシステムに反映される。
本稿では,ヒンディー語モデルにおける職業に関する性別バイアスを測定した。
以上の結果から,提案手法の適応後のバイアスが低減されることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T09:15:58Z) - Don't Forget About Pronouns: Removing Gender Bias in Language Models
Without Losing Factual Gender Information [4.391102490444539]
英語のテキストでは、ジェンダー情報とジェンダーバイアスの2つのタイプに焦点を当てている。
ジェンダーシグナルを保存しながら表現のステレオタイプバイアスを小さくすることを目的としている。
論文 参考訳(メタデータ) (2022-06-21T21:38:25Z) - Mitigating Gender Bias in Distilled Language Models via Counterfactual
Role Reversal [74.52580517012832]
言語エクセルモデルは、性中立性を持つ男女の知識を含むバイアスを受けることができる。
本稿では,複数の学習ロール設定に基づくジェンダー格差を緩和するための新しいアプローチを提案する。
男女極性言語を減少させるモデルは、公平さや下流の分類を改善しない。
論文 参考訳(メタデータ) (2022-03-23T17:34:35Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。