論文の概要: Exploring Human-Like Translation Strategy with Large Language Models
- arxiv url: http://arxiv.org/abs/2305.04118v3
- Date: Wed, 29 Nov 2023 13:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 04:05:13.632692
- Title: Exploring Human-Like Translation Strategy with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた人型翻訳戦略の探索
- Authors: Zhiwei He, Tian Liang, Wenxiang Jiao, Zhuosheng Zhang, Yujiu Yang, Rui
Wang, Zhaopeng Tu, Shuming Shi, Xing Wang
- Abstract要約: 大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
- 参考スコア(独自算出の注目度): 93.49333173279508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities in
general scenarios, exhibiting a level of aptitude that approaches, in some
aspects even surpasses, human-level intelligence. Among their numerous skills,
the translation abilities of LLMs have received considerable attention.
Compared to typical machine translation that focuses solely on source-to-target
mapping, LLM-based translation can potentially mimic the human translation
process which might take preparatory steps to ensure high-quality translation.
This work explores this possibility by proposing the MAPS framework, which
stands for Multi-Aspect Prompting and Selection. Specifically, we enable LLMs
first to analyze the given source sentence and induce three aspects of
translation-related knowledge: keywords, topics, and relevant demonstrations to
guide the final translation process. Moreover, we employ a selection mechanism
based on quality estimation to filter out noisy and unhelpful knowledge. Both
automatic (3 LLMs x 11 directions x 2 automatic metrics) and human evaluation
(preference study and MQM) demonstrate the effectiveness of MAPS. Further
analysis shows that by mimicking the human translation process, MAPS reduces
various translation errors such as hallucination, ambiguity, mistranslation,
awkward style, untranslated text, and omission. Source code is available at
https://github.com/zwhe99/MAPS-mt.
- Abstract(参考訳): 大規模言語モデル(LLM)は一般的なシナリオにおいて印象的な能力を示しており、人間レベルの知性を超えている面もある。
数多くの技術の中で、LLMの翻訳能力に大きな注目を集めている。
ソースからターゲットへのマッピングのみに焦点を当てた一般的な機械翻訳と比較して、llmベースの翻訳は、高品質翻訳を確実にするために準備段階を要した人間の翻訳プロセスを模倣する可能性がある。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
具体的には、まずLLMが与えられたソース文を分析し、キーワード、トピック、関連するデモという翻訳関連知識の3つの側面を誘導し、最終翻訳プロセスを導く。
さらに, 品質推定に基づく選択機構を用いて, うるさい知識や役に立たない知識をフィルタリングする。
automatic (3 llms x 11 direction x 2 automatic metrics) と human evaluation (preference study and mqm) の両方がmapsの有効性を示している。
さらに、ヒトの翻訳過程を模倣することにより、MAPSは幻覚、曖昧さ、誤訳、ぎこちないスタイル、翻訳されていないテキスト、省略といった様々な翻訳エラーを減らす。
ソースコードはhttps://github.com/zwhe99/maps-mtで入手できる。
関連論文リスト
- Shortcomings of LLMs for Low-Resource Translation: Retrieval and Understanding are Both the Problem [4.830018386227]
本研究では,機械翻訳パイプラインの自動化の一環として,事前学習された大言語モデル(LLM)が低リソース言語から高リソース言語への翻訳を指示する際の文脈内学習能力について検討する。
我々は南ケチュアをスペイン語に翻訳する一連の実験を行い、デジタル化された教育材料と平行コーパスの制約されたデータベースから得られた様々な種類の文脈の情報量について検討する。
論文 参考訳(メタデータ) (2024-06-21T20:02:22Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - MT-PATCHER: Selective and Extendable Knowledge Distillation from Large Language Models for Machine Translation [61.65537912700187]
機械翻訳(MT)分野における言語モデル(LLM)の強みを実証した。
我々は,LLMから既存のMTモデルに選択的かつ包括的かつ積極的に知識を伝達するMT-Patcherというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-14T16:07:39Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - Prompting PaLM for Translation: Assessing Strategies and Performance [16.73524055296411]
経路言語モデル (PaLM) は, 同様に訓練されたLLMの中で最強の機械翻訳(MT)性能を示した。
我々は、PaLMのMT機能に関する以前の評価を、より最近のテストセット、現代のMTメトリクス、そして人間の評価で再検討し、その性能は、印象的ではあるが、最先端の監視システムよりも遅れていることを発見した。
論文 参考訳(メタデータ) (2022-11-16T18:42:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。