論文の概要: Gender Bias in English-to-Greek Machine Translation
- arxiv url: http://arxiv.org/abs/2506.09558v1
- Date: Wed, 11 Jun 2025 09:44:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.826174
- Title: Gender Bias in English-to-Greek Machine Translation
- Title(参考訳): 英語-ギリシア語機械翻訳におけるジェンダーバイアス
- Authors: Eleni Gkovedarou, Joke Daems, Luna De Bruyne,
- Abstract要約: Google TranslateとDeepLの2つの翻訳では、ジェンダーバイアスが持続している。
GPT-4oは有望であり、ほとんどの曖昧なケースに対して適切な性別と中立の代替物を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the demand for inclusive language increases, concern has grown over the susceptibility of machine translation (MT) systems to reinforce gender stereotypes. This study investigates gender bias in two commercial MT systems, Google Translate and DeepL, focusing on the understudied English-to-Greek language pair. We address three aspects of gender bias: i) male bias, ii) occupational stereotyping, and iii) errors in anti-stereotypical translations. Additionally, we explore the potential of prompted GPT-4o as a bias mitigation tool that provides both gender-explicit and gender-neutral alternatives when necessary. To achieve this, we introduce GendEL, a manually crafted bilingual dataset of 240 gender-ambiguous and unambiguous sentences that feature stereotypical occupational nouns and adjectives. We find persistent gender bias in translations by both MT systems; while they perform well in cases where gender is explicitly defined, with DeepL outperforming both Google Translate and GPT-4o in feminine gender-unambiguous sentences, they are far from producing gender-inclusive or neutral translations when the gender is unspecified. GPT-4o shows promise, generating appropriate gendered and neutral alternatives for most ambiguous cases, though residual biases remain evident.
- Abstract(参考訳): 包括的言語への需要が高まるにつれて、ジェンダーステレオタイプを強化する機械翻訳(MT)システムの受容性に対する懸念が高まっている。
本研究では,Google TranslateとDeepLの2つの商用MTシステムにおける性別バイアスについて検討した。
ジェンダーバイアスの3つの側面に対処する。
i)男性の偏見
二 職業的ステレオタイピング及び
三 反ステレオタイプ翻訳の誤り
さらに,ジェンダー・エクストリシットとジェンダー・ニュートラルの両代替手段を提供するバイアス緩和ツールとして,GPT-4oの導入の可能性を探る。
そこで本稿では, 職業名詞と形容詞を特徴とする,240の性別・曖昧・曖昧な文を手作業で作成したバイリンガルデータセットGendELを紹介する。
DeepLは、Google TranslateとGPT-4oの両方を女性性不明瞭な文で上回っているが、性別が特定されていない場合には、性別非包括的、中立的な翻訳には程遠い。
GPT-4oは有望であり、ほとんどの曖昧な症例に対して適切な性別と中立の代替物を生成するが、残差は明らかである。
関連論文リスト
- EuroGEST: Investigating gender stereotypes in multilingual language models [53.88459905621724]
大規模言語モデルはますます複数の言語をサポートするようになったが、ほとんどのベンチマークは英語中心のままである。
EuroGESTは、英語と29のヨーロッパ言語にまたがるLLMにおける性別ステレオタイプ推論を計測するためのデータセットである。
論文 参考訳(メタデータ) (2025-06-04T11:58:18Z) - Translate With Care: Addressing Gender Bias, Neutrality, and Reasoning in Large Language Model Translations [6.066322919105025]
トランスレート・ウィズ・ケア(Translate-with-Care)データセットを導入する。
分析の結果,性別のないコンテンツの翻訳に苦慮していることが明らかとなり,性別のステレオタイピングや推論の誤りが生じた。
Google TranslateとGPT-4は特に強いバイアスを示し,男性代名詞は女性代名詞の4~6倍であった。
論文 参考訳(メタデータ) (2025-05-31T23:27:07Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender, names and other mysteries: Towards the ambiguous for
gender-inclusive translation [7.322734499960981]
本稿では,元文が明示的なジェンダーマーカーを欠いている場合について考察するが,目的文はより豊かな文法的ジェンダーによってそれらを含む。
MTデータ中の多くの名前と性別の共起は、ソース言語の「あいまいな性別」で解決できないことがわかった。
ジェンダー・インクルージョンの両面での曖昧さを受け入れるジェンダー・インクルージョン・トランスフォーメーションの可能性について論じる。
論文 参考訳(メタデータ) (2023-06-07T16:21:59Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Extending Challenge Sets to Uncover Gender Bias in Machine Translation:
Impact of Stereotypical Verbs and Adjectives [0.45687771576879593]
State-of-the-art Machine Translation (MT)システムは、主に人間が生成する大量のテキストコーパスに基づいて訓練されている。
近年の研究では、MTシステムは職業のステレオタイプ翻訳に偏っていることが示されている。
本稿では, ジェンダーバイアスのある形容詞と, ジェンダーバイアスのある動詞を含む文を付加した WiBeMT という課題集合の拡張について述べる。
論文 参考訳(メタデータ) (2021-07-24T11:22:10Z) - Neural Machine Translation Doesn't Translate Gender Coreference Right
Unless You Make It [18.148675498274866]
ニューラル・マシン・トランスフォーメーションに明示的な単語レベルのジェンダー・インフレクション・タグを組み込む手法を提案する。
既存の単純なアプローチは、文中の複数のエンティティにジェンダー・フィーチャーを過度に一般化することができる。
また,英語のジェンダーニュートラルな実体の翻訳を,それに対応する言語規則で評価する拡張も提案する。
論文 参考訳(メタデータ) (2020-10-11T20:05:42Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。