論文の概要: Are We Paying Attention to Her? Investigating Gender Disambiguation and Attention in Machine Translation
- arxiv url: http://arxiv.org/abs/2505.08546v1
- Date: Tue, 13 May 2025 13:17:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.580092
- Title: Are We Paying Attention to Her? Investigating Gender Disambiguation and Attention in Machine Translation
- Title(参考訳): 彼女に注意を払うか? : 機械翻訳におけるジェンダーの曖昧さと注意を探る
- Authors: Chiara Manna, Afra Alishahi, Frédéric Blain, Eva Vanmassenhove,
- Abstract要約: 最小ペア精度(MPA)と呼ばれる新しい評価指標を提案する。
MPAは、モデルが最小ペアで性別に適応するかどうかに焦点を当てている。
MPAは、反ステレオタイプの場合、NMTモデルは男性的な性別の手がかりを考慮に入れやすいことを示している。
- 参考スコア(独自算出の注目度): 4.881426374773398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While gender bias in modern Neural Machine Translation (NMT) systems has received much attention, traditional evaluation metrics do not to fully capture the extent to which these systems integrate contextual gender cues. We propose a novel evaluation metric called Minimal Pair Accuracy (MPA), which measures the reliance of models on gender cues for gender disambiguation. MPA is designed to go beyond surface-level gender accuracy metrics by focusing on whether models adapt to gender cues in minimal pairs -- sentence pairs that differ solely in the gendered pronoun, namely the explicit indicator of the target's entity gender in the source language (EN). We evaluate a number of NMT models on the English-Italian (EN--IT) language pair using this metric, we show that they ignore available gender cues in most cases in favor of (statistical) stereotypical gender interpretation. We further show that in anti-stereotypical cases, these models tend to more consistently take masculine gender cues into account while ignoring the feminine cues. Furthermore, we analyze the attention head weights in the encoder component and show that while all models encode gender information to some extent, masculine cues elicit a more diffused response compared to the more concentrated and specialized responses to feminine gender cues.
- Abstract(参考訳): 現代のニューラルマシン翻訳(NMT)システムにおけるジェンダーバイアスは注目されているが、従来の評価指標は、これらのシステムが文脈的ジェンダー手がかりを統合する範囲を完全に把握するものではない。
本稿では,ジェンダーの曖昧さに対するモデル依存度を計測するMPA(Minimmal Pair Accuracy)と呼ばれる新しい評価指標を提案する。
MPAは、モデルが最小のペアで性別の手がかりに適応するかどうか、すなわちソース言語(EN)におけるターゲットの実体の性別の明示的な指標である性代名詞でのみ異なる文対に焦点を当てることによって、表面レベルでの性別の精度の指標を超えるように設計されている。
我々は、この指標を用いて、英語とイタリア語(EN-IT)言語ペア上で、多くのNMTモデルを評価する。
さらに, 抗不定型症例では, 女性性手がかりを無視しながら, 男性性手がかりを考慮に入れやすい傾向が示唆された。
さらに,エンコーダ成分の注目頭部重みを分析し,性別情報をある程度エンコードするモデルではあるものの,男性クエは女性クエに対するより集中的で専門的な反応に比べて,より拡散した反応を呈することを示した。
関連論文リスト
- Watching the Watchers: Exposing Gender Disparities in Machine Translation Quality Estimation [28.01631390361754]
本稿では,QE指標の性別バイアスを定義し,検討する。
男性求心翻訳は女性求心翻訳よりも高いスコアを示し,性中立翻訳はペナル化されている。
本研究は,ジェンダーを中心としたQE指標の開発と評価に新たな焦点をあてることの必要性を強調した。
論文 参考訳(メタデータ) (2024-10-14T18:24:52Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
テキストコーパスにおけるジェンダーバイアスは、社会的不平等の永続性と増幅につながる可能性がある。
テキストコーパスにおけるジェンダー表現バイアスを計測する既存の手法は、主に英語で提案されている。
本稿では,スペインのコーパスにおけるジェンダー表現バイアスを定量的に測定する手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Target-Agnostic Gender-Aware Contrastive Learning for Mitigating Bias in
Multilingual Machine Translation [28.471506840241602]
ジェンダーバイアスは機械翻訳において重要な問題であり、バイアス軽減技術の研究が進行中である。
本稿では,新しいアプローチに基づくバイアス緩和手法を提案する。
Gender-Aware Contrastive Learning, GACLは、文脈性情報を非明示性単語の表現にエンコードする。
論文 参考訳(メタデータ) (2023-05-23T12:53:39Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。