論文の概要: Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer
- arxiv url: http://arxiv.org/abs/2109.13097v1
- Date: Mon, 27 Sep 2021 14:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:32:52.010209
- Title: Towards Reinforcement Learning for Pivot-based Neural Machine
Translation with Non-autoregressive Transformer
- Title(参考訳): 非自己回帰変換器を用いたPivot-based Neural Machine Translationの強化学習に向けて
- Authors: Evgeniia Tokarchuk, Jan Rosendahl, Weiyue Wang, Pavel Petrushkov,
Tomer Lancewicki, Shahram Khadivi, Hermann Ney
- Abstract要約: Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップで一般的に使用される。
我々は、ソースターゲットデータのトレーニングを可能にするエンドツーエンドのピボットベース統合モデルを提案する。
- 参考スコア(独自算出の注目度): 49.897891031932545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pivot-based neural machine translation (NMT) is commonly used in low-resource
setups, especially for translation between non-English language pairs. It
benefits from using high resource source-pivot and pivot-target language pairs
and an individual system is trained for both sub-tasks. However, these models
have no connection during training, and the source-pivot model is not optimized
to produce the best translation for the source-target task. In this work, we
propose to train a pivot-based NMT system with the reinforcement learning (RL)
approach, which has been investigated for various text generation tasks,
including machine translation (MT). We utilize a non-autoregressive transformer
and present an end-to-end pivot-based integrated model, enabling training on
source-target data.
- Abstract(参考訳): Pivot-based Neural Machine Translation (NMT) は、低リソースのセットアップ、特に非英語のペア間の翻訳に一般的に使用される。
高リソースのソースピボットとピボットターゲットの言語ペアを使用することで、サブタスクの両方で個々のシステムがトレーニングされる。
しかし、これらのモデルはトレーニング中に接続がなく、ソース-ピボットモデルがソース-ターゲットタスクの最適な翻訳を生成するように最適化されていない。
本研究では,機械翻訳 (mt) を含む様々なテキスト生成タスクについて検討した強化学習 (rl) 手法を用いて, pivot ベースの nmt システムを訓練することを提案する。
我々は,非自己回帰変圧器を利用し,エンドツーエンドのピボットベース統合モデルを提供し,ソースターゲットデータのトレーニングを可能にする。
関連論文リスト
- Only Send What You Need: Learning to Communicate Efficiently in
Federated Multilingual Machine Translation [19.28500206536013]
フェデレートラーニング(FL)は多言語課題を解決するための有望なアプローチである。
モデル伝送の通信効率を向上させるメタ学習に基づく適応パラメータ選択手法MetaSendを提案する。
我々は,MetaSendが,限られた通信予算が存在する場合に,翻訳品質のベースラインよりも大幅に改善されることを実証した。
論文 参考訳(メタデータ) (2024-01-15T04:04:26Z) - End-to-end Training and Decoding for Pivot-based Cascaded Translation
Model [40.41344631506705]
本稿では,ケースケード翻訳モデルのエンドツーエンド学習手法を提案する。
我々は、ピボットデコーディングにおいてビームサーチを用いてトークンと確率分布の不整合を緩和する。
論文 参考訳(メタデータ) (2023-05-03T16:48:43Z) - Active Learning for Neural Machine Translation [0.0]
NMTツールキットのJoey NMTにActive Learningと呼ばれるテクニックを組み込んで、低リソース言語翻訳の十分な精度と堅牢な予測を行った。
この研究は、トランスフォーマーベースのNMTシステム、ベースラインモデル(BM)、フルトレーニングモデル(FTM)、アクティブラーニング最小信頼ベースモデル(ALLCM)、アクティブラーニングマージンサンプリングベースモデル(ALMSM)を用いて、英語をヒンディー語に翻訳する。
論文 参考訳(メタデータ) (2022-12-30T17:04:01Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Language Modeling, Lexical Translation, Reordering: The Training Process
of NMT through the Lens of Classical SMT [64.1841519527504]
ニューラルマシン翻訳は、翻訳プロセス全体をモデル化するために、単一のニューラルネットワークを使用する。
ニューラルネットワーク翻訳はデファクトスタンダードであるにもかかわらず、NMTモデルがトレーニングの過程でどのように異なる能力を獲得するのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2021-09-03T09:38:50Z) - Simultaneous Multi-Pivot Neural Machine Translation [12.796775798210133]
同時のピボットNMT設定では、2つのピボット言語を使用することで最大5.8 BLEUの改善につながります。
N-way parallel UN corpus for Arabic to English NMTをフランス語とスペイン語でピボットとして用いた低リソース設定における実験により、2つのピボット言語を使用した同時ピボットNMT設定が最大5.8 BLEUの改善につながることが明らかになった。
論文 参考訳(メタデータ) (2021-04-15T12:19:52Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。