論文の概要: Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation
- arxiv url: http://arxiv.org/abs/2305.14016v1
- Date: Tue, 23 May 2023 12:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 16:19:30.674784
- Title: Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation
- Title(参考訳): 多言語機械翻訳におけるバイアスの緩和のための目標非依存性学習
- Authors: Minwoo Lee, Hyukhun Koh, Kang-il Lee, Dongdong Zhang, Minsung Kim,
Kyomin Jung
- Abstract要約: ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,この問題に対する新たな視点に基づく新たな緩和手法を提案する。
本手法は,翻訳性能を損なうことなく,性別の精度を広いマージンで向上することを示す。
- 参考スコア(独自算出の注目度): 24.958237059079305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender bias is a significant issue in machine translation, leading to ongoing
research efforts in developing bias mitigation techniques. However, most works
focus on debiasing of bilingual models without consideration for multilingual
systems. In this paper, we specifically target the unambiguous gender bias
issue of multilingual machine translation models and propose a new mitigation
method based on a novel perspective on the problem. We hypothesize that the
gender bias in unambiguous settings is due to the lack of gender information
encoded into the non-explicit gender words and devise a scheme to encode
correct gender information into their latent embeddings. Specifically, we
employ Gender-Aware Contrastive Learning, GACL, based on gender pseudo-labels
to encode gender information on the encoder embeddings. Our method is
target-language-agnostic and applicable to already trained multilingual machine
translation models through post-fine-tuning. Through multilingual evaluation,
we show that our approach improves gender accuracy by a wide margin without
hampering translation performance. We also observe that incorporated gender
information transfers and benefits other target languages regarding gender
accuracy. Finally, we demonstrate that our method is applicable and beneficial
to models of various sizes.
- Abstract(参考訳): ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
しかし、ほとんどの作品は多言語系を考慮せずにバイリンガルモデルのデバイアスに焦点を当てている。
本稿では,多言語機械翻訳モデルの不明瞭なジェンダーバイアス問題を特に対象とし,この問題に対する新たな視点に基づく新たな緩和手法を提案する。
非あいまいな設定のジェンダーバイアスは、性別以外の単語にエンコードされた性別情報の欠如と、正しい性別情報を潜在埋め込みにエンコードするスキームの考案によるものであると仮定する。
具体的には、性別認識型コントラスト学習(gacl)を用いて、エンコーダ埋め込みの性別情報を符号化する。
提案手法はターゲット言語に依存しない手法であり,複数言語翻訳モデルに適用可能である。
本手法は多言語評価により, 翻訳性能を損なうことなく, 男女差を広く改善できることを示す。
また、性別情報伝達が組み込まれていることも観察し、性別の正確性に関する他の対象言語に便益をもたらす。
最後に,本手法が様々なサイズのモデルに適用可能であることを示す。
関連論文リスト
- Dual Debiasing: Remove Stereotypes and Keep Factual Gender for Fair Language Modeling and Translation [5.482673673984126]
言語モデルがジェンダーステレオタイプに依存しているようなバイアスの緩和は、信頼性と有用な言語技術の創造に必要な重要な取り組みである。
モデル適応による2次元ダビアシングアルゴリズム(2DAMA)を提案する。
2DAMAは、英語における性バイアスを効果的に低減し、翻訳におけるステレオタイプ傾向の緩和への最初のアプローチの一つであることを示す。
論文 参考訳(メタデータ) (2025-01-17T12:23:30Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
テキストコーパスにおけるジェンダーバイアスは、社会的不平等の永続性と増幅につながる可能性がある。
テキストコーパスにおけるジェンダー表現バイアスを計測する既存の手法は、主に英語で提案されている。
本稿では,スペインのコーパスにおけるジェンダー表現バイアスを定量的に測定する手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - What is Your Favorite Gender, MLM? Gender Bias Evaluation in Multilingual Masked Language Models [8.618945530676614]
本稿では,中国語,英語,ドイツ語,ポルトガル語,スペイン語の5言語から,多言語辞書の性別バイアスを推定する手法を提案する。
ジェンダーバイアスのより堅牢な分析のための文対を生成するために,新しいモデルに基づく手法を提案する。
以上の結果から,複数の評価指標をベストプラクティスとして用いた大規模データセットでは,性別バイアスを研究すべきであることが示唆された。
論文 参考訳(メタデータ) (2024-04-09T21:12:08Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Gender Lost In Translation: How Bridging The Gap Between Languages
Affects Gender Bias in Zero-Shot Multilingual Translation [12.376309678270275]
並列データが利用できない言語間のギャップを埋めることは、多言語NTTの性別バイアスに影響を与える。
本研究では, 言語に依存しない隠蔽表現が, ジェンダーの保存能力に及ぼす影響について検討した。
言語に依存しない表現は、ゼロショットモデルの男性バイアスを緩和し、ブリッジ言語におけるジェンダーインフレクションのレベルが増加し、話者関連性合意に対するより公平なジェンダー保存に関するゼロショット翻訳を超越することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:51:50Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Improving Gender Translation Accuracy with Filtered Self-Training [14.938401898546548]
機械翻訳システムは、性別が文脈から明確である場合でも、しばしば誤った性別を出力する。
性別不明瞭な入力に対してジェンダー翻訳精度を向上させるためのジェンダーフィルターによる自己訓練手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T18:05:29Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。