論文の概要: Multilingual Machine Translation with Large Language Models: Empirical
Results and Analysis
- arxiv url: http://arxiv.org/abs/2304.04675v3
- Date: Sun, 29 Oct 2023 21:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 22:51:23.550463
- Title: Multilingual Machine Translation with Large Language Models: Empirical
Results and Analysis
- Title(参考訳): 大規模言語モデルを用いた多言語機械翻訳:実験結果と分析
- Authors: Wenhao Zhu, Hongyi Liu, Qingxiu Dong, Jingjing Xu, Shujian Huang,
Lingpeng Kong, Jiajun Chen, Lei Li
- Abstract要約: 大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
- 参考スコア(独自算出の注目度): 108.37242622164709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable potential in
handling multilingual machine translation (MMT). In this paper, we
systematically investigate the advantages and challenges of LLMs for MMT by
answering two questions: 1) How well do LLMs perform in translating massive
languages? 2) Which factors affect LLMs' performance in translation? We
thoroughly evaluate eight popular LLMs, including ChatGPT and GPT-4. Our
empirical results show that translation capabilities of LLMs are continually
improving. GPT-4 has beat the strong supervised baseline NLLB in 40.91% of
translation directions but still faces a large gap towards the commercial
translation system, especially on low-resource languages. Through further
analysis, we discover that LLMs exhibit new working patterns when used for MMT.
First, instruction semantics can surprisingly be ignored when given in-context
exemplars. Second, cross-lingual exemplars can provide better task guidance for
low-resource translation than exemplars in the same language pairs. Third, LLM
can acquire translation ability in a resource-efficient way and generate
moderate translation even on zero-resource languages.
- Abstract(参考訳): 大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示している。
本稿では, MMT における LLM の利点と課題を, 2 つの質問に答えて体系的に検討する。
1) LLM は大規模言語を翻訳するのにどの程度効果があるか?
2)翻訳におけるLLMの性能に影響を及ぼす要因は何か?
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
実験の結果,LLMの翻訳能力は継続的に向上していることがわかった。
GPT-4は、40.91%の翻訳方向で強力な教師付きベースラインのNLLBを破っているが、商用翻訳システム、特に低リソース言語に対する大きなギャップに直面している。
さらなる分析により,LSMはMTに使用する場合,新たな作業パターンを示すことがわかった。
まず、インコンテキストの例示が与えられた場合、命令セマンティクスは驚くほど無視される。
第2に、言語横断の例題は、同じ言語対の例題よりも、低リソース翻訳のための優れたタスクガイダンスを提供することができる。
第3に、LLMはリソース効率のよい翻訳能力を獲得し、ゼロリソース言語でも適度な翻訳を生成することができる。
関連論文リスト
- What do Large Language Models Need for Machine Translation Evaluation? [12.42394213466485]
大規模言語モデル(LLM)は、微調整された多言語事前訓練言語モデルに匹敵する結果が得られる。
本稿では,LLMの機械翻訳品質を評価するために,ソース,参照,翻訳エラー,ガイドラインなどの翻訳情報が必要であるかを検討する。
論文 参考訳(メタデータ) (2024-10-04T09:50:45Z) - Learning-From-Mistakes Prompting for Indigenous Language Translation [3.7790255156708397]
本稿では,低リソースの母国語翻訳を改善する手法を提案する。
我々のアプローチは、限られた数の並列翻訳例からなるデータストアの使用に基礎を置いています。
我々は、LLMをユニバーサルトランスレータとして使用するような設定において、LLMと文脈内学習技術のポテンシャルを利用する。
論文 参考訳(メタデータ) (2024-07-18T09:41:20Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages [51.301942056881146]
アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
論文 参考訳(メタデータ) (2023-12-26T18:38:54Z) - On-the-Fly Fusion of Large Language Models and Machine Translation [3.718665608549311]
我々は,同じタスクと入力に対して,LLMを用いた機械翻訳モデルのオンザフライアンサンブルを提案する。
LLMはNMTモデルの翻訳を改善することができ、LLMとのアンサンブルは2つのより強いMTモデルをアンサンブルするよりも優れた翻訳を生成することができる。
論文 参考訳(メタデータ) (2023-11-14T16:49:33Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。