論文の概要: Translate With Care: Addressing Gender Bias, Neutrality, and Reasoning in Large Language Model Translations
- arxiv url: http://arxiv.org/abs/2506.00748v1
- Date: Sat, 31 May 2025 23:27:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.515425
- Title: Translate With Care: Addressing Gender Bias, Neutrality, and Reasoning in Large Language Model Translations
- Title(参考訳): 言語モデル翻訳におけるジェンダーバイアス,中立性,推論の対応
- Authors: Pardis Sadat Zahraei, Ali Emami,
- Abstract要約: トランスレート・ウィズ・ケア(Translate-with-Care)データセットを導入する。
分析の結果,性別のないコンテンツの翻訳に苦慮していることが明らかとなり,性別のステレオタイピングや推論の誤りが生じた。
Google TranslateとGPT-4は特に強いバイアスを示し,男性代名詞は女性代名詞の4~6倍であった。
- 参考スコア(独自算出の注目度): 6.066322919105025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Addressing gender bias and maintaining logical coherence in machine translation remains challenging, particularly when translating between natural gender languages, like English, and genderless languages, such as Persian, Indonesian, and Finnish. We introduce the Translate-with-Care (TWC) dataset, comprising 3,950 challenging scenarios across six low- to mid-resource languages, to assess translation systems' performance. Our analysis of diverse technologies, including GPT-4, mBART-50, NLLB-200, and Google Translate, reveals a universal struggle in translating genderless content, resulting in gender stereotyping and reasoning errors. All models preferred masculine pronouns when gender stereotypes could influence choices. Google Translate and GPT-4 showed particularly strong bias, favoring male pronouns 4-6 times more than feminine ones in leadership and professional success contexts. Fine-tuning mBART-50 on TWC substantially resolved these biases and errors, led to strong generalization, and surpassed proprietary LLMs while remaining open-source. This work emphasizes the need for targeted approaches to gender and semantic coherence in machine translation, particularly for genderless languages, contributing to more equitable and accurate translation systems.
- Abstract(参考訳): ジェンダーバイアスに対処し、機械翻訳における論理的コヒーレンスを維持することは、特に英語のような自然性言語とペルシア語、インドネシア語、フィンランド語のようなジェンダーレス言語を翻訳する場合、依然として困難である。
翻訳システムの性能を評価するため,トランスレート・ウィズ・ケア(Translate-with-Care, TWC)データセットを導入する。
GPT-4, mBART-50, NLLB-200, Google Translate などの多種多様な技術の解析により,ジェンダーレスコンテンツの翻訳に苦慮していることが明らかとなった。
すべてのモデルは、性別のステレオタイプが選択に影響を与える可能性のある男性代名詞を好んだ。
Google TranslateとGPT-4は、特に強いバイアスを示し、リーダーシップや専門的成功の文脈において、男性代名詞の4~6倍の傾向を示した。
TWCのmBART-50はこれらのバイアスとエラーを実質的に解決し、強力な一般化をもたらし、オープンソースのままプロプライエタリなLLMを超越した。
この研究は、特にジェンダーレス言語において、機械翻訳におけるジェンダーとセマンティックコヒーレンスに対する標的的アプローチの必要性を強調し、より公平で正確な翻訳システムに寄与する。
関連論文リスト
- FairTranslate: An English-French Dataset for Gender Bias Evaluation in Machine Translation by Overcoming Gender Binarity [0.6827423171182154]
大規模言語モデル(LLM)は、翻訳タスクにますます活用されているが、包括的言語を翻訳する際にはしばしば不足する。
本稿では、英語からフランス語への機械翻訳システムにおいて、非二項性バイアスを評価するために設計された、完全に人間による注釈付きデータセットを提案する。
論文 参考訳(メタデータ) (2025-04-22T14:35:16Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GATE X-E : A Challenge Set for Gender-Fair Translations from
Weakly-Gendered Languages [0.0]
我々は、トルコ語、ハンガリー語、フィンランド語、ペルシア語から英語への翻訳からなるGATEコーパスの拡張であるGATE X-Eを紹介する。
このデータセットは、幅広い文の長さと領域を持つ自然文を特徴とし、様々な言語現象に関する翻訳書き直しに挑戦する。
GPT-4で構築した翻訳性書換えソリューションをGATE X-Eを用いて評価する。
論文 参考訳(メタデータ) (2024-02-22T04:36:14Z) - Evaluating Gender Bias in the Translation of Gender-Neutral Languages
into English [0.0]
我々は、トルコ語、ハンガリー語、フィンランド語、ペルシア語から英語への翻訳からなるGATEコーパスの拡張であるGATE X-Eを紹介する。
このデータセットは、幅広い文の長さと領域を持つ自然文を特徴とし、様々な言語現象に関する翻訳書き直しに挑戦する。
GPT-3.5 Turbo上に構築された英語のジェンダー書き換えソリューションをGATE X-Eを用いて評価する。
論文 参考訳(メタデータ) (2023-11-15T10:25:14Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。