論文の概要: Gender-specific Machine Translation with Large Language Models
- arxiv url: http://arxiv.org/abs/2309.03175v1
- Date: Wed, 6 Sep 2023 17:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 14:25:04.818273
- Title: Gender-specific Machine Translation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた男女別機械翻訳
- Authors: Eduardo S\'anchez, Pierre Andrews, Pontus Stenetorp, Mikel Artetxe,
Marta R. Costa-juss\`a
- Abstract要約: デコーダのみの大規模言語モデル(LLM)は機械翻訳(MT)の可能性を実証している
LLMはプロンプトを通じて出力のプロパティを制御する機能を提供する。
以上の結果から,LLaMaは競争精度と男女差を緩和した性別特化翻訳を生成できることが示唆された。
- 参考スコア(独自算出の注目度): 34.308153581168874
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Decoder-only Large Language Models (LLMs) have demonstrated potential in
machine translation (MT), albeit with performance slightly lagging behind
traditional encoder-decoder Neural Machine Translation (NMT) systems. However,
LLMs offer a unique advantage: the ability to control the properties of the
output through prompts. In this study, we harness this flexibility to explore
LLaMa's capability to produce gender-specific translations for languages with
grammatical gender. Our results indicate that LLaMa can generate
gender-specific translations with competitive accuracy and gender bias
mitigation when compared to NLLB, a state-of-the-art multilingual NMT system.
Furthermore, our experiments reveal that LLaMa's translations are robust,
showing significant performance drops when evaluated against opposite-gender
references in gender-ambiguous datasets but maintaining consistency in less
ambiguous contexts. This research provides insights into the potential and
challenges of using LLMs for gender-specific translations and highlights the
importance of in-context learning to elicit new tasks in LLMs.
- Abstract(参考訳): デコーダのみの大規模言語モデル(llms)は、従来のエンコーダ-デコーダニューラルマシン翻訳(nmt)システムよりも若干性能が遅れているが、機械翻訳(mt)の可能性を実証している。
しかし LLM にはユニークな利点があり、プロンプトを通じて出力の特性を制御する能力がある。
本研究では、この柔軟性を活用して、文法性のある言語に対する性特化翻訳を生成するLLaMaの能力を探求する。
以上の結果から,LLaMaは,最先端多言語NMTシステムであるNLLBと比較して,競争精度と男女差の緩和を両立できることがわかった。
さらに,ラマの翻訳はロバストであり,性別不明瞭なデータセットにおける対人的参照に対して高い性能低下を示したが,不明瞭な文脈では一貫性を維持した。
本研究は、性特化翻訳にLLMを使うことの可能性と課題に関する洞察を提供し、LLMにおける新しいタスクを引き出すための文脈内学習の重要性を強調する。
関連論文リスト
- The power of Prompts: Evaluating and Mitigating Gender Bias in MT with LLMs [1.707677607445317]
本稿では,Large Language Models (LLM) のレンズを用いた機械翻訳における性別バイアスについて検討する。
4つの広く使われているテストセットを使用して、様々なベースLLMをベンチマークし、それらの翻訳品質と性別バイアスを、カタルーニャ語(En $rightarrow$Ca)とスペイン語(En $rightarrow$Es)の英語(En $rightarrow$Es)の最先端のニューラルネットワーク翻訳(NMT)モデルと比較する。
以上の結果から,NMTモデルと比較すると,LLMは高い偏差を示し,全モデルにまたがる性的偏差が認められた。
論文 参考訳(メタデータ) (2024-07-26T14:47:31Z) - Fine-grained Gender Control in Machine Translation with Large Language Models [15.63784352130237]
複数のエンティティを持つより現実的な入力設定で、制御された翻訳に取り組む。
提案手法は,詳細な実体レベルのジェンダー情報を用いてモデルを指示し,正しいジェンダーインフレクションで翻訳する。
我々は、複数の実体の性別を制御する際に、ジェンダー干渉現象が出現することを発見した。
論文 参考訳(メタデータ) (2024-07-21T13:15:00Z) - Improving Machine Translation with Large Language Models: A Preliminary Study with Cooperative Decoding [73.32763904267186]
大きな言語モデル(LLM)は、優れた翻訳品質を達成する可能性を示す。
我々は,NMTシステムを事前翻訳モデルとして扱うCooperative Decoding(CoDec)と,MT指向LLMを補足解として提案する。
論文 参考訳(メタデータ) (2023-11-06T03:41:57Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - Dictionary-based Phrase-level Prompting of Large Language Models for
Machine Translation [91.57514888410205]
大規模言語モデル(LLM)は、プロンプトによる機械翻訳(MT)能力を示す。
LLMは、低リソースやドメイン転送のシナリオで一般的なまれな単語で入力を翻訳するのに苦労する。
LLMプロンプトは、バイリンガル辞書からの事前知識を用いてプロンプトの制御ヒントを提供することにより、稀な単語に対する効果的な解決策を提供することができることを示す。
論文 参考訳(メタデータ) (2023-02-15T18:46:42Z) - Investigating Failures of Automatic Translation in the Case of
Unambiguous Gender [13.58884863186619]
トランスフォーマーベースのモデルは、ニューラルマシン翻訳(NMT)のための現代の作業馬です。
我々は、名詞の性別をマークしない言語から他の名詞に翻訳することに関して、トランスフォーマーモデルによる体系的で初歩的なエラーのクラスを観察する。
トランスベースのNMTモデルがジェンダーを正しく翻訳する能力を測定するための評価スキームとデータセットをリリースします。
論文 参考訳(メタデータ) (2021-04-16T00:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。