論文の概要: Effective General-Domain Data Inclusion for the Machine Translation Task
by Vanilla Transformers
- arxiv url: http://arxiv.org/abs/2209.14073v1
- Date: Wed, 28 Sep 2022 13:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:56:28.515846
- Title: Effective General-Domain Data Inclusion for the Machine Translation Task
by Vanilla Transformers
- Title(参考訳): バニラ変圧器による機械翻訳作業における有効汎用データ包摂
- Authors: Hassan Soliman
- Abstract要約: 本稿では,ドイツ語のソース文を英語のターゲット文に翻訳可能なトランスフォーマーベースシステムを提案する。
我々はWMT'13データセットから、ニュースコメンタリーなドイツ語-英語並列文の実験を行った。
We found that including the IWSLT'16 dataset in training help a gain of 2 BLEU score points on the test set of the WMT'13 dataset。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the vital breakthroughs in the history of machine translation is the
development of the Transformer model. Not only it is revolutionary for various
translation tasks, but also for a majority of other NLP tasks. In this paper,
we aim at a Transformer-based system that is able to translate a source
sentence in German to its counterpart target sentence in English. We perform
the experiments on the news commentary German-English parallel sentences from
the WMT'13 dataset. In addition, we investigate the effect of the inclusion of
additional general-domain data in training from the IWSLT'16 dataset to improve
the Transformer model performance. We find that including the IWSLT'16 dataset
in training helps achieve a gain of 2 BLEU score points on the test set of the
WMT'13 dataset. Qualitative analysis is introduced to analyze how the usage of
general-domain data helps improve the quality of the produced translation
sentences.
- Abstract(参考訳): 機械翻訳の歴史における重要なブレークスルーの1つは、トランスフォーマーモデルの開発である。
様々な翻訳タスクに革命的なだけでなく、他のほとんどのnlpタスクにも革命的です。
本稿では,ドイツ語のソース文を英語のターゲット文に変換するトランスフォーマーに基づくシステムを提案する。
wmt'13データセットからドイツ語と英語の並列文をニュースコメントとして実験を行った。
さらに,IWSLT'16データセットから追加の一般領域データを含めることによるトランスフォーマーモデルの性能向上効果についても検討した。
トレーニング中の iwslt'16 データセットを含めると、wmt'13 データセットのテストセットで 2 bleu スコアポイントを獲得することができる。
一般領域データの利用が生成した翻訳文の品質向上にどのように役立つかを分析するために,定性分析を導入する。
関連論文リスト
- Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Improved Data Augmentation for Translation Suggestion [28.672227843541656]
本稿では,WMT'22翻訳提案共有タスクに使用するシステムについて紹介する。
我々は3つの戦略を用いて並列コーパスから合成データを構築し、教師付きデータの欠如を補う。
私たちはそれぞれ、英語とドイツ語と英語と中国語の双方向タスクで第2位と第3位にランク付けします。
論文 参考訳(メタデータ) (2022-10-12T12:46:43Z) - Domain-Specific Text Generation for Machine Translation [7.803471587734353]
ドメイン固有データ拡張のための最先端事前学習言語モデル(LM)を利用したドメイン適応手法を提案する。
我々は、ドメイン内テキストの翻訳を大幅に改善するモデルを訓練するために、混合微調整を用いています。
論文 参考訳(メタデータ) (2022-08-11T16:22:16Z) - Non-Parametric Domain Adaptation for End-to-End Speech Translation [72.37869362559212]
E2E-ST(End-to-End Speech Translation)は、エラー伝播の低減、レイテンシの低減、パラメータの削減などにより注目されている。
本稿では,E2E-STシステムのドメイン適応を実現するために,ドメイン固有のテキスト翻訳コーパスを活用する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T11:41:02Z) - Improving Neural Machine Translation by Bidirectional Training [85.64797317290349]
我々は、ニューラルネットワーク翻訳のためのシンプルで効果的な事前学習戦略である双方向トレーニング(BiT)を提案する。
具体的には、初期モデルのパラメータを双方向に更新し、正常にモデルを調整する。
実験の結果,BiTは8つの言語対上の15の翻訳タスクに対して,SOTAニューラルマシン翻訳性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:58:33Z) - Netmarble AI Center's WMT21 Automatic Post-Editing Shared Task
Submission [6.043109546012043]
本稿では,Netmarble による WMT21 Automatic Post-Editing (APE) Shared Task for the English-German Language pairについて述べる。
Facebook FairのWMT19ニュース翻訳モデルは、大規模で強力なトレーニング済みニューラルネットワークを扱うために選ばれた。
性能向上のために、トレーニング後および微調整時に、外部翻訳を拡張機械翻訳(MT)として活用する。
論文 参考訳(メタデータ) (2021-09-14T08:21:18Z) - Meta Back-translation [111.87397401837286]
プリトレーニングされたバック翻訳モデルから擬似並列データを生成する新しい手法を提案する。
本手法は,生成する擬似並列データに対して,検証セット上で良好な処理を行うためのフォワードトランスレーションモデルを訓練するように,事前訓練されたバックトランスレーションモデルを適用するメタラーニングアルゴリズムである。
論文 参考訳(メタデータ) (2021-02-15T20:58:32Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。