論文の概要: Simultaneous Neural Machine Translation with Constituent Label
Prediction
- arxiv url: http://arxiv.org/abs/2110.13480v1
- Date: Tue, 26 Oct 2021 08:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 01:43:33.056019
- Title: Simultaneous Neural Machine Translation with Constituent Label
Prediction
- Title(参考訳): 構成ラベル予測を用いた同時ニューラルマシン翻訳
- Authors: Yasumasa Kano, Katsuhito Sudoh, Satoshi Nakamura
- Abstract要約: 同時翻訳は、話者が話す前に翻訳が始まるタスクである。
逐次成分ラベル予測により予測される次の成分のラベルを用いた簡易な決定規則を提案する。
日英同時翻訳実験において,提案手法は品質・レイテンシトレードオフにおいてベースラインを上回った。
- 参考スコア(独自算出の注目度): 35.74159659906497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous translation is a task in which translation begins before the
speaker has finished speaking, so it is important to decide when to start the
translation process. However, deciding whether to read more input words or
start to translate is difficult for language pairs with different word orders
such as English and Japanese. Motivated by the concept of pre-reordering, we
propose a couple of simple decision rules using the label of the next
constituent predicted by incremental constituent label prediction. In
experiments on English-to-Japanese simultaneous translation, the proposed
method outperformed baselines in the quality-latency trade-off.
- Abstract(参考訳): 同時翻訳とは、話者が話す前に翻訳が始まるタスクであり、翻訳プロセスの開始時期を決定することが重要である。
しかし、英語や日本語などの単語順が異なる言語対では、より多くの入力語を読むか翻訳を始めるかは難しい。
事前注文の概念に動機づけられ,次成分のラベルをインクリメンタル成分ラベル予測によって予測する,いくつかの簡単な決定規則を提案する。
日英同時翻訳実験において,提案手法は品質・レイテンシトレードオフにおいてベースラインを上回った。
関連論文リスト
- Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Monotonic Simultaneous Translation with Chunk-wise Reordering and
Refinement [38.89496608319392]
本稿では,全文翻訳コーパスの目的側を並べ替え,洗練するアルゴリズムを提案する。
ソースとターゲットの文間の単語/フレーズは、単語アライメントと非自己回帰型ニューラルマシン翻訳を用いて、主に単調に配列される。
提案手法はBLEUのスコアを改良し,結果の翻訳により文の単調性が向上する。
論文 参考訳(メタデータ) (2021-10-18T22:51:21Z) - Facilitating Terminology Translation with Target Lemma Annotations [4.492630871726495]
対象言語の補題でランダムに選択されたソース言語単語を注釈するソースサイドデータ拡張法を用いて機械翻訳システムを訓練する。
形態学的に複雑なバルト語とウラル語への用語翻訳の実験は、ベースラインシステムよりも最大7つのBLEU点の改善を示している。
人的評価の結果は、ラトビア語への翻訳の際の項翻訳精度において、以前の研究よりも47.7%の絶対的な改善を示している。
論文 参考訳(メタデータ) (2021-01-25T12:07:20Z) - SimulMT to SimulST: Adapting Simultaneous Text Translation to End-to-End
Simultaneous Speech Translation [23.685648804345984]
テキストの同時翻訳とエンドツーエンドの音声翻訳は、最近大きな進歩を遂げているが、これらのタスクを組み合わさった作業はほとんどない。
我々は,事前決定モジュールを導入することで,待ち時間や単調マルチヘッドといった同時テキスト翻訳手法をエンドツーエンドの同時音声翻訳に適応させる方法について検討する。
固定およびフレキシブルな事前決定と固定およびフレキシブルなポリシーを組み合わせることで、レイテンシ品質のトレードオフを詳細に分析する。
論文 参考訳(メタデータ) (2020-11-03T22:47:58Z) - Improving Simultaneous Translation by Incorporating Pseudo-References
with Fewer Reorderings [24.997435410680378]
本稿では,既存の全文コーパスのターゲット側を同時翻訳に書き換える手法を提案する。
Zh->En と Ja->En の同時翻訳実験は、これらの擬似参照の追加により大幅に改善された。
論文 参考訳(メタデータ) (2020-10-21T19:03:06Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Re-translation versus Streaming for Simultaneous Translation [14.800214853561823]
本研究では,厳密な付加語以上の仮説の修正が許される問題について検討する。
この設定では、カスタムストリーミングアプローチと再翻訳を比較します。
再翻訳は最先端のストリーミングシステムと同じくらい良いか良いかのどちらかだと考えています。
論文 参考訳(メタデータ) (2020-04-07T18:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。