論文の概要: Leveraging GPT-4 for Automatic Translation Post-Editing
- arxiv url: http://arxiv.org/abs/2305.14878v2
- Date: Mon, 23 Oct 2023 23:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 00:45:54.833475
- Title: Leveraging GPT-4 for Automatic Translation Post-Editing
- Title(参考訳): gpt-4を用いた翻訳後自動編集
- Authors: Vikas Raunak, Amr Sharaf, Yiren Wang, Hany Hassan Awadallah, Arul
Menezes
- Abstract要約: GPT-4は翻訳後編集に長けており、有意義で信頼できる翻訳編集が可能である。
GPT-4に基づく後編集を用いて、WMT-22英語、英語、英語、中国語、ドイツ語のペアの最先端性能を改善した。
- 参考スコア(独自算出の注目度): 23.65958978995292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Neural Machine Translation (NMT) represents the leading approach to
Machine Translation (MT), the outputs of NMT models still require translation
post-editing to rectify errors and enhance quality under critical settings. In
this work, we formalize the task of direct translation post-editing with Large
Language Models (LLMs) and explore the use of GPT-4 to automatically post-edit
NMT outputs across several language pairs. Our results demonstrate that GPT-4
is adept at translation post-editing, producing meaningful and trustworthy
edits to translations that help improve its general quality as well as remove
different classes of major errors in translations. In particular, human
evaluations on assessing edit trustworthiness show that GPT-4 exhibits a large
improvement over the prior state-of-the-art LLM. Notably, we improve upon
state-of-the-art performance on WMT-22 English-Chinese, English-German,
Chinese-English and German-English language pairs using GPT-4 based
post-editing, as evaluated by state-of-the-art MT quality metrics. However, we
also show that GPT-4 could produce hallucinated edits, thereby urging caution
in its use as an expert translation post-editor.
- Abstract(参考訳): ニューラル機械翻訳(NMT)は機械翻訳(MT)の主要なアプローチであるが、NMTモデルの出力は依然として、エラーの修正と重要な設定下での品質向上のために翻訳後編集を必要とする。
本研究では,Large Language Models (LLMs) を用いた翻訳後直接編集のタスクを形式化し,GPT-4を用いて複数の言語ペア間でNMT出力を自動的に後処理する方法について検討する。
以上の結果から,GPT-4は翻訳後編集に長けており,翻訳の全体的な品質向上に寄与する有意義で信頼性の高い編集や,翻訳における主要な誤りの異なる分類の除去に有効であることが示唆された。
特に,人間による編集信頼性評価では,GPT-4は従来のLLMよりも大幅に改善されている。
特に,GPT-4に基づく後編集を用いて,WMT-22英語,英語,英語,中国語,ドイツ語の言語ペアの最先端性能を改善した。
しかし, GPT-4は幻覚的編集が可能であることも示し, 専門家翻訳ポストエディターとしての使用に注意を促した。
関連論文リスト
- GPT-4 vs. Human Translators: A Comprehensive Evaluation of Translation Quality Across Languages, Domains, and Expertise Levels [18.835573312027265]
本研究では,人間の翻訳者に対するLarge Language Models(LLMs)の翻訳品質を包括的に評価する。
また, GPT-4は, 中高の翻訳者よりも遅れが小さいため, 中高の翻訳者に対して同等に機能することがわかった。
論文 参考訳(メタデータ) (2024-07-04T05:58:04Z) - Prompting Large Language Models with Human Error Markings for Self-Correcting Machine Translation [11.351365352611658]
後編集(PE)は、エラーを訂正し、専門ドメインの項翻訳品質を高めるために依然として必要である。
技術的領域における正しい一貫した項翻訳の必要性に対する翻訳記憶(TM)の強化に関するパイロット研究について述べる。
論文 参考訳(メタデータ) (2024-06-04T12:43:47Z) - Guiding Large Language Models to Post-Edit Machine Translation with Error Annotations [14.149224539732913]
機械翻訳は、大規模言語モデル(LLM)がまだ専用の教師付きシステムに取って代わっていない最後のNLPタスクの1つである。
この研究はLLMの補完的な強度を利用して、その品質に外部からのフィードバックを伴って、LMを自動で後続MTに誘導する。
中国語・英語・ドイツ語・英語・ロシア語のMQMデータを用いた実験により,LLMのMT後処理によりTER,BLEU,COMETのスコアが向上することが実証された。
微調整はきめ細かいフィードバックをより効果的に統合し、自動評価と人的評価の両方に基づいて翻訳品質を向上させる。
論文 参考訳(メタデータ) (2024-04-11T15:47:10Z) - Improving Cross-Domain Low-Resource Text Generation through LLM
Post-Editing: A Programmer-Interpreter Approach [50.400999859808984]
後編集は、大規模言語モデル(LLM)によって生成されたテキストの品質向上に有効であることが証明された。
本稿では,LLMの領域一般化能力を保持するニューラルプログラマ・解釈手法を提案する。
実験により,プログラマ・インタプリタは論理形式変換や低リソース機械翻訳において,GPT-3.5の性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-07T06:13:14Z) - Contrastive Preference Optimization: Pushing the Boundaries of LLM Performance in Machine Translation [50.00235162432848]
我々は22Kパラレル文と12Mパラメータしか持たないALMAモデルを訓練する。
ALMA-Rと呼ばれる結果のモデルは、WMTコンテストの勝者とGPT-4のパフォーマンスと一致または上回ることができる。
論文 参考訳(メタデータ) (2024-01-16T15:04:51Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - ParroT: Translating during Chat using Large Language Models tuned with
Human Translation and Feedback [90.20262941911027]
ParroTはチャット中の翻訳機能を強化し、規制するフレームワークである。
具体的には、ParroTは、翻訳データを命令フォロースタイルに書き換える。
本稿では,ParroTモデルを微調整するための3つの命令タイプを提案する。
論文 参考訳(メタデータ) (2023-04-05T13:12:00Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - DivEMT: Neural Machine Translation Post-Editing Effort Across
Typologically Diverse Languages [5.367993194110256]
DivEMTは、ニューラルネットワーク翻訳(NMT)に関する、タイプ的かつ多様なターゲット言語に対する初めての公開後研究である。
我々は、Google Translateとオープンソースの多言語モデルmBART50の2つの最先端NTTシステムの翻訳生産性への影響を評価する。
論文 参考訳(メタデータ) (2022-05-24T17:22:52Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。