論文の概要: Iterative Translation Refinement with Large Language Models
- arxiv url: http://arxiv.org/abs/2306.03856v1
- Date: Tue, 6 Jun 2023 16:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 14:16:04.060161
- Title: Iterative Translation Refinement with Large Language Models
- Title(参考訳): 大規模言語モデルによる逐次翻訳の改良
- Authors: Pinzhen Chen, Zhicheng Guo, Barry Haddow, Kenneth Heafield
- Abstract要約: 本稿では,大規模言語モデルを反復的プロセスに組み込むことで,単なる翻訳以上の出力品質を向上させることを示す。
GPT-3.5によるテストシナリオでは、反復は文字列ベースのメートル法スコアを減少させるが、ニューラルネットワークメトリクスは翻訳品質を向上しないかどうかを示す。
- 参考スコア(独自算出の注目度): 18.496393796992212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have shown surprising performances in understanding
instructions and performing natural language tasks. In this paper, we propose
iterative translation refinement to leverage the power of large language models
for more natural translation and post-editing. We show that by simply involving
a large language model in an iterative process, the output quality improves
beyond mere translation. Extensive test scenarios with GPT-3.5 reveal that
although iterations reduce string-based metric scores, neural metrics indicate
comparable if not improved translation quality. Further, human evaluations
demonstrate that our method effectively reduces translationese compared to
initial GPT translations and even human references, especially for into-English
directions. Ablation studies underscore the importance of anchoring the
refinement process to the source input and a reasonable initial translation.
- Abstract(参考訳): 大規模言語モデルは、命令の理解や自然言語タスクの実行において驚くべきパフォーマンスを示している。
本稿では,より自然な翻訳や後編集のために,大規模言語モデルの力を利用する反復翻訳の改良を提案する。
反復的プロセスに単に大きな言語モデルを取り込むことで、出力品質が単なる翻訳以上のものとなることを示す。
GPT-3.5による大規模なテストシナリオでは、反復は文字列ベースのメートル法スコアを減少させるが、ニューラルネットワークメトリクスは翻訳品質を向上しないかどうかを示す。
また,人間の評価により,初期のgpt翻訳や,特に英語への指示に対する人間の参照と比較して,翻訳を効果的に削減できることが示されている。
アブレーション研究は、精製過程をソース入力と合理的な初期翻訳に固定することの重要性を強調している。
関連論文リスト
- Advancing Translation Preference Modeling with RLHF: A Step Towards
Cost-Effective Solution [57.42593422091653]
人間のフィードバックによる強化学習の活用による翻訳品質の向上について検討する。
強力な言語能力を持つ報酬モデルは、翻訳品質の微妙な違いをより敏感に学習することができる。
論文 参考訳(メタデータ) (2024-02-18T09:51:49Z) - Contextual Refinement of Translations: Large Language Models for
Sentence and Document-Level Post-Editing [14.030354616779327]
大規模言語モデル(LLM)は様々な自然言語処理タスクでかなりの成功を収めている。
彼らはまだ、ニューラルネットワーク翻訳における最先端のパフォーマンスを達成できていない。
ニューラルネットワーク翻訳におけるLLMの応用について検討し,近年のパラメータ効率向上技術について検討する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Optimizing Machine Translation through Prompt Engineering: An
Investigation into ChatGPT's Customizability [0.0]
この研究は、ChatGPTのような大規模言語モデルに適切なプロンプトが組み込まれれば、柔軟な翻訳が可能になることを明らかにしている。
この研究は、特定の条件を満たす翻訳を生成するためにプロンプトを使用すると、翻訳品質の変化を精査する。
論文 参考訳(メタデータ) (2023-08-02T19:11:04Z) - ParroT: Translating during Chat using Large Language Models tuned with
Human Translation and Feedback [90.20262941911027]
ParroTはチャット中の翻訳機能を強化し、規制するフレームワークである。
具体的には、ParroTは、翻訳データを命令フォロースタイルに書き換える。
本稿では,ParroTモデルを微調整するための3つの命令タイプを提案する。
論文 参考訳(メタデータ) (2023-04-05T13:12:00Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Modelling Latent Translations for Cross-Lingual Transfer [47.61502999819699]
従来のパイプラインの2つのステップ(翻訳と分類)を1つのモデルに統合する新しい手法を提案する。
我々は,多言語NLUタスクにおける新しい潜時翻訳モデルの評価を行った。
ゼロショットと数ショットの学習設定の両方で、平均2.7の精度ポイントのゲインを報告します。
論文 参考訳(メタデータ) (2021-07-23T17:11:27Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Improving Zero-Shot Translation by Disentangling Positional Information [24.02434897109097]
言語固有の表現を引き起こす主な要因は、入力トークンに対する位置対応であることを示す。
指示方向の品質を維持しながら、ゼロショット翻訳で最大18.5 BLEUポイントを得る。
論文 参考訳(メタデータ) (2020-12-30T12:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。