論文の概要: Improving LLM-based Machine Translation with Systematic Self-Correction
- arxiv url: http://arxiv.org/abs/2402.16379v1
- Date: Mon, 26 Feb 2024 07:58:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:17:35.804641
- Title: Improving LLM-based Machine Translation with Systematic Self-Correction
- Title(参考訳): 系統的自己補正によるLLM機械翻訳の改良
- Authors: Zhaopeng Feng, Yan Zhang, Hao Li, Wenqiang Liu, Jun Lang, Yang Feng,
Jian Wu, Zuozhu Liu
- Abstract要約: 大規模言語モデル(LLM)は機械翻訳(MT)において印象的な結果を得た
我々は,この方向への大きな一歩を踏み出した,系統的LLMに基づく自己修正翻訳フレームワーク TER を紹介する。
- 参考スコア(独自算出の注目度): 27.679218053257685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have achieved impressive results in Machine
Translation (MT). However, careful evaluations by human reveal that the
translations produced by LLMs still contain multiple errors. Importantly,
feeding back such error information into the LLMs can lead to self-correction
and result in improved translation performance. Motivated by these insights, we
introduce a systematic LLM-based self-correcting translation framework, named
TER, which stands for Translate, Estimate, and Refine, marking a significant
step forward in this direction. Our findings demonstrate that 1) our
self-correction framework successfully assists LLMs in improving their
translation quality across a wide range of languages, whether it's from
high-resource languages to low-resource ones or whether it's English-centric or
centered around other languages; 2) TER exhibits superior systematicity and
interpretability compared to previous methods; 3) different estimation
strategies yield varied impacts on AI feedback, directly affecting the
effectiveness of the final corrections. We further compare different LLMs and
conduct various experiments involving self-correction and cross-model
correction to investigate the potential relationship between the translation
and evaluation capabilities of LLMs.
- Abstract(参考訳): 大規模言語モデル (LLM) は機械翻訳 (MT) において驚くべき結果を得た。
しかし、人間による慎重な評価は、LLMが生成した翻訳には、まだ複数の誤りが含まれていることを明らかにしている。
重要なことは、そのようなエラー情報をLSMにフィードバックすることで、自己補正が生じ、翻訳性能が向上する可能性がある。
これらの知見に触発されて, 翻訳, 見積, Refine の略語である TER という, LLM に基づく自己訂正翻訳フレームワークを導入し, この方向への大きな一歩を踏み出した。
私たちの発見は
1)当社の自己修正フレームワークは,高リソース言語から低リソース言語まで,あるいは英語中心か,あるいは他言語中心かに関わらず,幅広い言語を対象とした翻訳品質の向上において,llmをうまく支援しています。
2) TERは,従来の方法と比較して,系統性及び解釈性に優れる。
3) 異なる推定戦略は、aiフィードバックに様々な影響をもたらし、最終補正の有効性に直接影響する。
さらに,LLMの翻訳能力と評価能力との関係について検討し,自己補正とクロスモデル補正を含む様々な実験を行った。
関連論文リスト
- Refining Translations with LLMs: A Constraint-Aware Iterative Prompting Approach [7.5069214839655345]
大言語モデル(LLM)は機械翻訳(MT)において顕著な熟練性を示している
本稿では,意味的正確性に不可欠なキーワードを優先することで,翻訳忠実度を高める多段階のプロンプトチェーンを提案する。
FLORES-200およびWMTデータセットのベースモデルとしてLlamaとQwenを使用した実験は、ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-11-13T05:40:24Z) - Mitigating the Language Mismatch and Repetition Issues in LLM-based Machine Translation via Model Editing [39.375342978538654]
機械翻訳を行うためにLLM(Large Language Models)を活用することに注力する。
誤りの2つのパターンが頻繁に発生し、言語ミスマッチと繰り返しの翻訳品質に劇的な影響を与えていることを観察する。
モデル編集手法を活用することにより,これらの2つの問題を緩和する可能性について検討する。
論文 参考訳(メタデータ) (2024-10-09T16:51:21Z) - What do Large Language Models Need for Machine Translation Evaluation? [12.42394213466485]
大規模言語モデル(LLM)は、微調整された多言語事前訓練言語モデルに匹敵する結果が得られる。
本稿では,LLMの機械翻訳品質を評価するために,ソース,参照,翻訳エラー,ガイドラインなどの翻訳情報が必要であるかを検討する。
論文 参考訳(メタデータ) (2024-10-04T09:50:45Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Lost in the Source Language: How Large Language Models Evaluate the Quality of Machine Translation [64.5862977630713]
本研究では,機械翻訳評価タスクにおいて,Large Language Models (LLM) がソースデータと参照データをどのように活用するかを検討する。
参照情報が評価精度を大幅に向上させるのに対して,意外なことに,ソース情報は時として非生産的である。
論文 参考訳(メタデータ) (2024-01-12T13:23:21Z) - Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages [51.301942056881146]
アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
論文 参考訳(メタデータ) (2023-12-26T18:38:54Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。