論文の概要: Exploring Human-Like Translation Strategy with Large Language Models
- arxiv url: http://arxiv.org/abs/2305.04118v3
- Date: Wed, 29 Nov 2023 13:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 04:05:13.632692
- Title: Exploring Human-Like Translation Strategy with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた人型翻訳戦略の探索
- Authors: Zhiwei He, Tian Liang, Wenxiang Jiao, Zhuosheng Zhang, Yujiu Yang, Rui
Wang, Zhaopeng Tu, Shuming Shi, Xing Wang
- Abstract要約: 大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
- 参考スコア(独自算出の注目度): 93.49333173279508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities in
general scenarios, exhibiting a level of aptitude that approaches, in some
aspects even surpasses, human-level intelligence. Among their numerous skills,
the translation abilities of LLMs have received considerable attention.
Compared to typical machine translation that focuses solely on source-to-target
mapping, LLM-based translation can potentially mimic the human translation
process which might take preparatory steps to ensure high-quality translation.
This work explores this possibility by proposing the MAPS framework, which
stands for Multi-Aspect Prompting and Selection. Specifically, we enable LLMs
first to analyze the given source sentence and induce three aspects of
translation-related knowledge: keywords, topics, and relevant demonstrations to
guide the final translation process. Moreover, we employ a selection mechanism
based on quality estimation to filter out noisy and unhelpful knowledge. Both
automatic (3 LLMs x 11 directions x 2 automatic metrics) and human evaluation
(preference study and MQM) demonstrate the effectiveness of MAPS. Further
analysis shows that by mimicking the human translation process, MAPS reduces
various translation errors such as hallucination, ambiguity, mistranslation,
awkward style, untranslated text, and omission. Source code is available at
https://github.com/zwhe99/MAPS-mt.
- Abstract(参考訳): 大規模言語モデル(LLM)は一般的なシナリオにおいて印象的な能力を示しており、人間レベルの知性を超えている面もある。
数多くの技術の中で、LLMの翻訳能力に大きな注目を集めている。
ソースからターゲットへのマッピングのみに焦点を当てた一般的な機械翻訳と比較して、llmベースの翻訳は、高品質翻訳を確実にするために準備段階を要した人間の翻訳プロセスを模倣する可能性がある。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
具体的には、まずLLMが与えられたソース文を分析し、キーワード、トピック、関連するデモという翻訳関連知識の3つの側面を誘導し、最終翻訳プロセスを導く。
さらに, 品質推定に基づく選択機構を用いて, うるさい知識や役に立たない知識をフィルタリングする。
automatic (3 llms x 11 direction x 2 automatic metrics) と human evaluation (preference study and mqm) の両方がmapsの有効性を示している。
さらに、ヒトの翻訳過程を模倣することにより、MAPSは幻覚、曖昧さ、誤訳、ぎこちないスタイル、翻訳されていないテキスト、省略といった様々な翻訳エラーを減らす。
ソースコードはhttps://github.com/zwhe99/maps-mtで入手できる。
関連論文リスト
- MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - Adapting Large Language Models for Document-Level Machine Translation [49.74879186939818]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて大きな進歩を遂げている。
近年の研究では、中程度のLLMはタスク固有の微調整の後、より大きなLLMよりも優れていることが示されている。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Predictive Data Analytics with AI: assessing the need for post-editing
of MT output by fine-tuning OpenAI LLMs [7.319949517211021]
TQEは機械翻訳(MT)と人間翻訳(HT)の両方の品質を基準翻訳なしで評価する上で重要である。
この目的のために,最先端の大規模言語モデル (LLM) が利用できるかを検討する。
OpenAIモデルを最先端技術として捉え、バイナリ分類タスクとしてTQEにアプローチします。
論文 参考訳(メタデータ) (2023-07-31T21:13:30Z) - Multilingual Machine Translation with Large Language Models: Empirical
Results and Analysis [108.37242622164709]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - Prompting PaLM for Translation: Assessing Strategies and Performance [16.73524055296411]
経路言語モデル (PaLM) は, 同様に訓練されたLLMの中で最強の機械翻訳(MT)性能を示した。
我々は、PaLMのMT機能に関する以前の評価を、より最近のテストセット、現代のMTメトリクス、そして人間の評価で再検討し、その性能は、印象的ではあるが、最先端の監視システムよりも遅れていることを発見した。
論文 参考訳(メタデータ) (2022-11-16T18:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。