論文の概要: Simple and Effective Input Reformulations for Translation
- arxiv url: http://arxiv.org/abs/2311.06696v1
- Date: Sun, 12 Nov 2023 00:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 17:17:06.454725
- Title: Simple and Effective Input Reformulations for Translation
- Title(参考訳): 翻訳のための単純かつ効果的な入力再構成
- Authors: Brian Yu and Hansen Lillemark and Kurt Keutzer
- Abstract要約: 我々は、事前学習によるモデルの強みを活用し、下流の性能を向上させるため、微調整中の入力を変換する。
これらのテクニックによる実験では、Flores200翻訳ベンチマークで、textbf3.5 chrF++までの大幅なパフォーマンス向上が示されている。
- 参考スコア(独自算出の注目度): 30.083127947715077
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Foundation language models learn from their finetuning input context in
different ways. In this paper, we reformulate inputs during finetuning for
challenging translation tasks, leveraging model strengths from pretraining in
novel ways to improve downstream performance. These reformulations are simple
data level modifications, require no additional collection of training data or
modification of data at inference time. They can be applied either on single
language pair translation tasks or massively multilingual translation tasks.
Experiments with these techniques demonstrate significant performance
improvements up to $\textbf{3.5 chrF++ on the Flores200 translation
benchmark}$. We hope our research accessibly improves finetuning data
efficiency, enabling more effective training to scalably improve
state-of-the-art performance. Our code is released
$\href{https://github.com/bri25yu/LanguageModelExperimentation}{here}.$
- Abstract(参考訳): 基礎言語モデルは、入力コンテキストの微調整から異なる方法で学習する。
本稿では, 翻訳課題に対する微調整中の入力を再構成し, 下流性能向上のための新しい手法による事前学習からモデルの強みを生かした。
これらの修正は単純なデータレベルの修正であり、追加のトレーニングデータや推論時のデータの修正を必要としない。
それらは単一の言語ペア翻訳タスクや多言語翻訳タスクにも適用できる。
これらのテクニックによる実験は、Flores200の翻訳ベンチマークで$\textbf{3.5 chrF++までの大幅なパフォーマンス向上を示している。
われわれの研究はデータの微調整効率を向上し、より効果的なトレーニングにより、最先端のパフォーマンスを向上できることを期待している。
私たちのコードは $\href{https://github.com/bri25yu/LanguageModelExperimentation}{here} でリリースされています。
$
関連論文リスト
- Training Bilingual LMs with Data Constraints in the Targeted Language [20.262591969661447]
本研究では,データ制約対象言語における事前学習モデルの性能を向上させるために,高品質なデータを利用できる補助言語からデータを抽出する手法について検討する。
本研究では,データ豊富な補助言語におけるトレーニングとデータ間のパフォーマンスギャップを,対象言語のトレーニングと比較して定量化する。
以上の結果から,より強力な補助データセットは,モデルの変更や近接言語学習の目的を伴わずに,性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2024-11-20T02:27:40Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - ParroT: Translating during Chat using Large Language Models tuned with
Human Translation and Feedback [90.20262941911027]
ParroTはチャット中の翻訳機能を強化し、規制するフレームワークである。
具体的には、ParroTは、翻訳データを命令フォロースタイルに書き換える。
本稿では,ParroTモデルを微調整するための3つの命令タイプを提案する。
論文 参考訳(メタデータ) (2023-04-05T13:12:00Z) - MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better
Translators [10.557167523009392]
本稿では,事前学習した言語モデルを翻訳タスクに適応させるための,シンプルで軽量な手法であるMulti-Stage Promptingを提案する。
事前学習された言語モデルをより優れた翻訳者にするために,事前学習された言語モデルを介して翻訳過程を3つの段階に分けた。
各段階において、事前訓練された言語モデルを翻訳タスクに適応させるために、異なる連続的なプロンプトを独立して適用する。
論文 参考訳(メタデータ) (2021-10-13T10:06:21Z) - Improving Neural Machine Translation by Bidirectional Training [85.64797317290349]
我々は、ニューラルネットワーク翻訳のためのシンプルで効果的な事前学習戦略である双方向トレーニング(BiT)を提案する。
具体的には、初期モデルのパラメータを双方向に更新し、正常にモデルを調整する。
実験の結果,BiTは8つの言語対上の15の翻訳タスクに対して,SOTAニューラルマシン翻訳性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:58:33Z) - Netmarble AI Center's WMT21 Automatic Post-Editing Shared Task
Submission [6.043109546012043]
本稿では,Netmarble による WMT21 Automatic Post-Editing (APE) Shared Task for the English-German Language pairについて述べる。
Facebook FairのWMT19ニュース翻訳モデルは、大規模で強力なトレーニング済みニューラルネットワークを扱うために選ばれた。
性能向上のために、トレーニング後および微調整時に、外部翻訳を拡張機械翻訳(MT)として活用する。
論文 参考訳(メタデータ) (2021-09-14T08:21:18Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Selecting Informative Contexts Improves Language Model Finetuning [66.26521454263343]
本稿では,情報ゲインフィルタと呼ぶ汎用的な微調整手法を提案する。
微調整中、二次学習者は情報的例を選択し、非情報的例をスキップする。
提案手法は,データセット,微調整タスク,言語モデルアーキテクチャ間で一貫した改善がなされていることを示す。
論文 参考訳(メタデータ) (2020-05-01T02:01:18Z) - Balancing Training for Multilingual Neural Machine Translation [130.54253367251738]
多言語機械翻訳(MT)モデルは、複数の言語に翻訳/翻訳することができる。
標準的なプラクティスは、表現力を高めるために、リソースの少ない言語をアップサンプルすることである。
そこで本研究では,データスコアラによるトレーニングデータの重み付けを自動的に学習する手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T18:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。