論文の概要: ChatGPT Perpetuates Gender Bias in Machine Translation and Ignores
Non-Gendered Pronouns: Findings across Bengali and Five other Low-Resource
Languages
- arxiv url: http://arxiv.org/abs/2305.10510v1
- Date: Wed, 17 May 2023 18:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:16:19.865142
- Title: ChatGPT Perpetuates Gender Bias in Machine Translation and Ignores
Non-Gendered Pronouns: Findings across Bengali and Five other Low-Resource
Languages
- Title(参考訳): ChatGPTは機械翻訳におけるジェンダーバイアスを持続し、非ジェンダー代名詞を無視する:ベンガル語および他の5つの低リソース言語にまたがる発見
- Authors: Sourojit Ghosh, and Aylin Caliskan
- Abstract要約: ジェンダーニュートラル代名詞のみを用いた英語と言語間の翻訳におけるChatGPTの精度について検討する。
ChatGPTは、特定の職業に割り当てられた性別のデフォルトやステレオタイプを永続する。
我々は、ChatGPTがGoogle TranslateやMS Translatorのようなツールで実証されたのと同じ性別バイアスを示すと結論付けた。
- 参考スコア(独自算出の注目度): 2.5690340428649323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this multicultural age, language translation is one of the most performed
tasks, and it is becoming increasingly AI-moderated and automated. As a novel
AI system, ChatGPT claims to be proficient in such translation tasks and in
this paper, we put that claim to the test. Specifically, we examine ChatGPT's
accuracy in translating between English and languages that exclusively use
gender-neutral pronouns. We center this study around Bengali, the 7$^{th}$ most
spoken language globally, but also generalize our findings across five other
languages: Farsi, Malay, Tagalog, Thai, and Turkish. We find that ChatGPT
perpetuates gender defaults and stereotypes assigned to certain occupations
(e.g. man = doctor, woman = nurse) or actions (e.g. woman = cook, man = go to
work), as it converts gender-neutral pronouns in languages to `he' or `she'. We
also observe ChatGPT completely failing to translate the English gender-neutral
pronoun `they' into equivalent gender-neutral pronouns in other languages, as
it produces translations that are incoherent and incorrect. While it does
respect and provide appropriately gender-marked versions of Bengali words when
prompted with gender information in English, ChatGPT appears to confer a higher
respect to men than to women in the same occupation. We conclude that ChatGPT
exhibits the same gender biases which have been demonstrated for tools like
Google Translate or MS Translator, as we provide recommendations for a human
centered approach for future designers of AIs that perform language translation
to better accommodate such low-resource languages.
- Abstract(参考訳): この多文化時代には、言語翻訳は最も実行されたタスクの1つであり、AIを改良し自動化されつつある。
新たなAIシステムとして、ChatGPTはこのような翻訳タスクに熟練していると主張している。
具体的には、性中立代名詞のみを用いた英語と言語間の翻訳におけるChatGPTの精度について検討する。
この研究は、世界中の7$^{th}の言語であるベンガルを中心とし、Farsi、Maray、Tagalog、Thai、Turkianの5つの言語にまたがる私たちの発見を一般化しています。
ChatGPTは、特定の職業(例えば、男性 = 医師、女性 = 看護師)や行動(例えば、女性 = 料理、男 = 仕事に行く)に割り当てられたジェンダーのデフォルトやステレオタイプを、言語中の性中立な代名詞を「he」や「she」に変換する。
また、chatgpt は、英語の性中立代名詞 ‘they' を他の言語で同等の性中立代名詞に変換するのに完全に失敗したことを観察する。
英語でジェンダー情報によって促されたベンガル語の言葉を尊重し、適切にジェンダーマークしたバージョンを提供するが、ChatGPTは同じ職業の女性よりも男性に高い敬意を抱いているようである。
我々は、ChatGPTがGoogle TranslateやMS Translatorのようなツールで実証されたのと同じ性別バイアスを示しており、このような低リソース言語に適合するように言語翻訳を行うAIの設計者に対して、人間中心のアプローチを提案する。
関連論文リスト
- 'Since Lawyers are Males..': Examining Implicit Gender Bias in Hindi Language Generation by LLMs [4.021517742561241]
本研究はヒンディー語のテキスト生成における性差の暗黙的偏見を調査し,それを英語のそれと比較する。
以上の結果から, ヒンディー語では87.8%, 英語では33.4%であった。
この研究は、言語間での性別バイアスの変化を強調し、生成的AIシステムにおいてこれらのバイアスをナビゲートするための考察を提供する。
論文 参考訳(メタデータ) (2024-09-20T13:16:58Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - What about em? How Commercial Machine Translation Fails to Handle
(Neo-)Pronouns [26.28827649737955]
単語代名詞の翻訳は、例えば非バイナリな個人など、余分に分類されたグループに対して区別することができる。
3つの商用機械翻訳システムが3人称代名詞の翻訳方法を検討する。
我々の誤り分析は、性中立代名詞の存在が文法的・意味的な翻訳誤りにつながることをしばしば示している。
論文 参考訳(メタデータ) (2023-05-25T13:34:09Z) - Is ChatGPT A Good Translator? Yes With GPT-4 As The Engine [97.8609714773255]
機械翻訳におけるChatGPTの評価には,翻訳プロンプト,多言語翻訳,翻訳堅牢性などが含まれる。
ChatGPTは商用翻訳製品と競合するが、低リソースや遠方の言語では遅れている。
GPT-4エンジンの打ち上げにより、ChatGPTの翻訳性能は大幅に向上した。
論文 参考訳(メタデータ) (2023-01-20T08:51:36Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Gender Coreference and Bias Evaluation at WMT 2020 [16.814151914000856]
機械翻訳における性差は、素早い性相関に基づいて性差を選択する際に現れる。
我々の研究は、WMTに提出された19以上のシステムにおいて、この現象の最大の証拠を示す。
すべてのシステムは、意味のある文脈情報ではなく、データ内の刺激的な相関を一貫して利用している。
論文 参考訳(メタデータ) (2020-10-12T20:42:21Z) - Neural Machine Translation Doesn't Translate Gender Coreference Right
Unless You Make It [18.148675498274866]
ニューラル・マシン・トランスフォーメーションに明示的な単語レベルのジェンダー・インフレクション・タグを組み込む手法を提案する。
既存の単純なアプローチは、文中の複数のエンティティにジェンダー・フィーチャーを過度に一般化することができる。
また,英語のジェンダーニュートラルな実体の翻訳を,それに対応する言語規則で評価する拡張も提案する。
論文 参考訳(メタデータ) (2020-10-11T20:05:42Z) - Gender in Danger? Evaluating Speech Translation Technology on the
MuST-SHE Corpus [20.766890957411132]
英語のような生産的な文法的なジェンダーのない言語からジェンダーマーク付き言語に翻訳することは、機械にとってよく知られた困難である。
ジェンダーバイアスを減らすために、オーディオは追加情報を提供できるか?
本稿では、音声翻訳における性差に関する最初の徹底的な調査を行い、将来の研究に役立つベンチマークのリリースに寄与する。
論文 参考訳(メタデータ) (2020-06-10T09:55:38Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。