論文の概要: From LLM to NMT: Advancing Low-Resource Machine Translation with Claude
- arxiv url: http://arxiv.org/abs/2404.13813v1
- Date: Mon, 22 Apr 2024 01:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 15:36:05.698022
- Title: From LLM to NMT: Advancing Low-Resource Machine Translation with Claude
- Title(参考訳): LLMからNMTへ - Claudeによる低リソース機械翻訳の改善
- Authors: Maxim Enis, Mark Hopkins,
- Abstract要約: 2024年3月にArthropicがリリースした大規模言語モデル(LLM)であるClaude 3 Opusは、他のLLMよりも強力な機械翻訳能力を示している。
我々は、低リソースの機械翻訳におけるClaudeの有効性を裏付ける新しいベンチマークをキュレートする。
クロードを用いて合成データを生成することにより、ヨルバ語訳における知識蒸留が最先端の最先端技術であることを示す。
- 参考スコア(独自算出の注目度): 2.6549754445378335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show that Claude 3 Opus, a large language model (LLM) released by Anthropic in March 2024, exhibits stronger machine translation competence than other LLMs. Though we find evidence of data contamination with Claude on FLORES-200, we curate new benchmarks that corroborate the effectiveness of Claude for low-resource machine translation into English. We find that Claude has remarkable \textit{resource efficiency} -- the degree to which the quality of the translation model depends on a language pair's resource level. Finally, we show that advancements in LLM translation can be compressed into traditional neural machine translation (NMT) models. Using Claude to generate synthetic data, we demonstrate that knowledge distillation advances the state-of-the-art in Yoruba-English translation, meeting or surpassing strong baselines like NLLB-54B and Google Translate.
- Abstract(参考訳): 2024年3月にArthropicがリリースした大規模言語モデル(LLM)であるClaude 3 Opusは、他のLLMよりも強力な機械翻訳能力を示している。
FLORES-200上でClaudeによるデータ汚染の証拠を見いだすが、低リソース機械翻訳におけるClaudeの有効性を裏付ける新しいベンチマークを収集する。
Claude は際立った \textit{resource efficiency} -- 翻訳モデルの質が言語ペアのリソースレベルに依存する程度です。
最後に,LLM翻訳の進歩を従来のニューラルマシン翻訳(NMT)モデルに圧縮できることを示す。
クロードを用いて合成データを生成することにより, ヨルバ英語翻訳における知識蒸留が, NLLB-54BやGoogle Translateといった強力なベースラインに出会い, あるいは超越していることを示す。
関連論文リスト
- Understanding In-Context Machine Translation for Low-Resource Languages: A Case Study on Manchu [53.437954702561065]
In-context machine translation (MT) with large language model (LLMs) は低リソースMTにおいて有望な手法である。
本研究では,各資源とその品質が満州語による翻訳性能に与える影響を体系的に検討した。
結果から,良質な辞書や優れた並列例は有用であり,文法はほとんど役に立たないことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T14:53:49Z) - AFRIDOC-MT: Document-level MT Corpus for African Languages [24.871863004002616]
AFRIDOC-MTは、英語と5つのアフリカ語をカバーする文書レベルのマルチ並列翻訳データセットである。
データセットは334の健康と271の情報技術に関するニュースドキュメントで構成されており、全て英語からこれらの言語に翻訳されている。
論文 参考訳(メタデータ) (2025-01-10T22:49:29Z) - A Comparative Study of LLMs, NMT Models, and Their Combination in Persian-English Idiom Translation [5.689194193929357]
本稿ではペルシャ語$rightarrow$ Englishと英語$rightarrow$Persian翻訳の慣用表現を含む2つのパラレルデータセットを紹介する。
オープンソースとクローズドソースのLLM, NMTモデルおよびそれらの組み合わせを評価した。
クロード3.5-ソネットは、両方の翻訳方向において優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-12-13T09:29:27Z) - NusaMT-7B: Machine Translation for Low-Resource Indonesian Languages with Large Language Models [2.186901738997927]
本稿では,低リソースインドネシア語用機械翻訳モデルであるNusaMT-7Bを紹介する。
提案手法は, 単言語データ, Supervised Fine-Tuning (SFT) , 自己学習, LLMベースのデータクリーナーを併用し, 並列文のノイズを低減する。
この結果から,LLMの微調整により,低リソース言語への翻訳品質が向上し,言語保存や異文化間コミュニケーションに寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:33:25Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - A Tulu Resource for Machine Translation [3.038642416291856]
英語・トゥルー語翻訳のための最初の並列データセットを提案する。
トゥル語はインド南西部で約250万人が話されている。
パラレル・イングリッシュ・トゥルデータを使わずにトレーニングした我々のイングリッシュ・トゥルシステムは、Google Translateを19のBLEUポイントで上回っている。
論文 参考訳(メタデータ) (2024-03-28T04:30:07Z) - MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Reusing a Pretrained Language Model on Languages with Limited Corpora
for Unsupervised NMT [129.99918589405675]
本稿では,オープンソース言語上でのみ事前訓練されたLMを再利用する効果的な手法を提案する。
モノリンガルLMは両言語で微調整され、UNMTモデルの初期化に使用される。
我々のアプローチであるRE-LMは、英語・マケドニア語(En-Mk)と英語・アルバニア語(En-Sq)の競合言語間事前学習モデル(XLM)より優れています。
論文 参考訳(メタデータ) (2020-09-16T11:37:10Z) - Neural Machine Translation model for University Email Application [1.4731169524644787]
ML-> EN, EN-> ML翻訳のための最先端のシーケンス・ツー・シーケンスニューラルネットワークをGoogle Translateと比較した。
Google TranslationのBLEUスコアが低いことは、アプリケーションベースの地域モデルの方が優れていることを示している。
論文 参考訳(メタデータ) (2020-07-20T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。