論文の概要: Exploring Human-Like Translation Strategy with Large Language Models
- arxiv url: http://arxiv.org/abs/2305.04118v2
- Date: Thu, 22 Jun 2023 15:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 17:22:20.933340
- Title: Exploring Human-Like Translation Strategy with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた人型翻訳戦略の探索
- Authors: Zhiwei He, Tian Liang, Wenxiang Jiao, Zhuosheng Zhang, Yujiu Yang, Rui
Wang, Zhaopeng Tu, Shuming Shi, Xing Wang
- Abstract要約: 大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
- 参考スコア(独自算出の注目度): 57.67797133218298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities in
general scenarios, exhibiting a level of aptitude that approaches, in some
aspects even surpasses, human-level intelligence. Among their numerous skills,
the translation abilities of LLMs have received considerable attention. In
contrast to traditional machine translation that focuses solely on
source-target mapping, LLM-based translation can potentially mimic the human
translation process that takes many preparatory steps to ensure high-quality
translation. This work aims to explore this possibility by proposing the MAPS
framework, which stands for Multi-Aspect Prompting and Selection. Specifically,
we enable LLMs to first analyze the given source text and extract three aspects
of translation-related knowledge: keywords, topics and relevant demonstrations
to guide the translation process. To filter out the noisy and unhelpful
knowledge, we employ a selection mechanism based on quality estimation.
Experiments suggest that MAPS brings significant and consistent improvements
over text-davinci-003 and Alpaca on eight translation directions from the
latest WMT22 test sets. Our further analysis shows that the extracted knowledge
is critical in resolving up to 59% of hallucination mistakes in translation.
Code is available at https://github.com/zwhe99/MAPS-mt.
- Abstract(参考訳): 大規模言語モデル(LLM)は一般的なシナリオにおいて印象的な能力を示しており、人間レベルの知性を超えている面もある。
数多くの技術の中で、LLMの翻訳能力に大きな注目を集めている。
ソースターゲットマッピングのみに焦点を当てた従来の機械翻訳とは対照的に、LLMベースの翻訳は、高品質な翻訳を保証するために多くの準備段階を必要とする人間の翻訳プロセスを模倣する可能性がある。
本研究の目的は、マルチアスペクト・プロンプトとセレクションの略であるMAPSフレームワークを提案することである。
具体的には、LLMが与えられたソーステキストをまず分析し、翻訳関連知識の3つの側面(キーワード、トピック、関連するデモ)を抽出して翻訳プロセスを導く。
ノイズと非効率な知識をフィルタリングするために,品質推定に基づく選択機構を採用する。
実験の結果、MAPSは最新のWMT22テストセットからの8つの翻訳方向において、text-davinci-003とAlpacaよりも大幅に、一貫した改善をもたらすことが示唆された。
さらに分析した結果,抽出した知識は,翻訳における幻覚的誤りの最大59%を解消するのに重要であることがわかった。
コードはhttps://github.com/zwhe99/maps-mtで入手できる。
関連論文リスト
- Shortcomings of LLMs for Low-Resource Translation: Retrieval and Understanding are Both the Problem [4.830018386227]
本研究では,機械翻訳パイプラインの自動化の一環として,事前学習された大言語モデル(LLM)が低リソース言語から高リソース言語への翻訳を指示する際の文脈内学習能力について検討する。
我々は南ケチュアをスペイン語に翻訳する一連の実験を行い、デジタル化された教育材料と平行コーパスの制約されたデータベースから得られた様々な種類の文脈の情報量について検討する。
論文 参考訳(メタデータ) (2024-06-21T20:02:22Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - Prompting PaLM for Translation: Assessing Strategies and Performance [16.73524055296411]
経路言語モデル (PaLM) は, 同様に訓練されたLLMの中で最強の機械翻訳(MT)性能を示した。
我々は、PaLMのMT機能に関する以前の評価を、より最近のテストセット、現代のMTメトリクス、そして人間の評価で再検討し、その性能は、印象的ではあるが、最先端の監視システムよりも遅れていることを発見した。
論文 参考訳(メタデータ) (2022-11-16T18:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。