論文の概要: A Template-based Method for Constrained Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2205.11255v1
- Date: Mon, 23 May 2022 12:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 07:10:36.992096
- Title: A Template-based Method for Constrained Neural Machine Translation
- Title(参考訳): 制約付きニューラルマシン翻訳のためのテンプレートベース手法
- Authors: Shuo Wang, Peng Li, Zhixing Tan, Zhaopeng Tu, Maosong Sun, Yang Liu
- Abstract要約: 本稿では,デコード速度を維持しつつ,高い翻訳品質と精度で結果が得られるテンプレートベースの手法を提案する。
テンプレートの生成と導出は、1つのシーケンスからシーケンスまでのトレーニングフレームワークを通じて学習することができる。
実験結果から,提案手法は語彙的,構造的に制約された翻訳タスクにおいて,いくつかの代表的ベースラインを上回り得ることが示された。
- 参考スコア(独自算出の注目度): 100.02590022551718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine translation systems are expected to cope with various types of
constraints in many practical scenarios. While neural machine translation (NMT)
has achieved strong performance in unconstrained cases, it is non-trivial to
impose pre-specified constraints into the translation process of NMT models.
Although many approaches have been proposed to address this issue, most
existing methods can not satisfy the following three desiderata at the same
time: (1) high translation quality, (2) high match accuracy, and (3) low
latency. In this work, we propose a template-based method that can yield
results with high translation quality and match accuracy while keeping the
decoding speed. Our basic idea is to rearrange the generation of constrained
and unconstrained tokens through a template. The generation and derivation of
the template can be learned through one sequence-to-sequence training
framework. Thus our method does not require any changes in the model
architecture and the decoding algorithm, making it easy to apply. Experimental
results show that the proposed template-based methods can outperform several
representative baselines in lexically and structurally constrained translation
tasks.
- Abstract(参考訳): 機械翻訳システムは,様々な制約に対処することが期待される。
ニューラルマシン翻訳(NMT)は、制約のないケースでは高い性能を達成しているが、NMTモデルの翻訳プロセスに予め規定された制約を課すことは自明ではない。
この問題に対して多くのアプローチが提案されているが,既存の手法では,(1)高い翻訳品質,(2)高い一致精度,(3)低レイテンシの3つのデシラタを同時に満たすことはできない。
本研究では,復号速度を維持しつつ,高い翻訳品質と一致する精度で結果が得られるテンプレートベース手法を提案する。
私たちの基本的な考え方は、テンプレートを通じて制約付きトークンと制約なしトークンの生成を並べ替えることです。
テンプレートの生成と導出は、1つのシーケンスからシーケンスへのトレーニングフレームワークを通じて学べる。
したがって,本手法ではモデルアーキテクチャや復号化アルゴリズムの変更を一切必要とせず,適用が容易である。
実験結果から,提案手法は語彙的,構造的に制約された翻訳タスクにおいて,いくつかの代表的ベースラインを上回り得ることが示された。
関連論文リスト
- Accelerating Transformer Inference for Translation via Parallel Decoding [2.89306442817912]
自動回帰復号化は機械翻訳(MT)における変圧器の効率を制限する
並列デコーディングアルゴリズムを3つ提示し、異なる言語やモデルでテストする。
論文 参考訳(メタデータ) (2023-05-17T17:57:34Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Modelling Latent Translations for Cross-Lingual Transfer [47.61502999819699]
従来のパイプラインの2つのステップ(翻訳と分類)を1つのモデルに統合する新しい手法を提案する。
我々は,多言語NLUタスクにおける新しい潜時翻訳モデルの評価を行った。
ゼロショットと数ショットの学習設定の両方で、平均2.7の精度ポイントのゲインを報告します。
論文 参考訳(メタデータ) (2021-07-23T17:11:27Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Character-level Transformer-based Neural Machine Translation [5.699756532377753]
本稿では,トランスフォーマーをベースとした新しい手法について論じる。スピードと品質を,サブワードレベルでのトランスフォーマーとキャラクタレベルで比較する。
WMT'15: DE-EN, CS-EN, FI-EN, RU-ENの4つの言語対について評価を行った。
提案された新しいアーキテクチャは、単一のGPUでトレーニングすることが可能で、キャラクタレベルのTransformerよりも34%高速である。
論文 参考訳(メタデータ) (2020-05-22T15:40:43Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z) - Semi-Supervised Text Simplification with Back-Translation and Asymmetric
Denoising Autoencoders [37.949101113934226]
テキスト単純化(TS)は、長い文を単純化した変種に言い換え、固有の意味を保ちながら表現する。
本研究では,TSタスクにおける大量の未ペアコーパスの活用方法について検討する。
本稿では,異なる複雑さを持つ文に対する非対称な記述法を提案する。
論文 参考訳(メタデータ) (2020-04-30T11:19:04Z) - Lexically Constrained Neural Machine Translation with Levenshtein
Transformer [8.831954614241234]
本稿では,ニューラルネットワーク翻訳に語彙制約を組み込むための,単純かつ効果的なアルゴリズムを提案する。
提案手法は,デコード速度に影響を与えることなく,推論時に用語制約を注入する。
論文 参考訳(メタデータ) (2020-04-27T09:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。