論文の概要: Monotonic Simultaneous Translation with Chunk-wise Reordering and
Refinement
- arxiv url: http://arxiv.org/abs/2110.09646v1
- Date: Mon, 18 Oct 2021 22:51:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 13:19:25.806968
- Title: Monotonic Simultaneous Translation with Chunk-wise Reordering and
Refinement
- Title(参考訳): チャンク方向の並べ替えと精細化による単調同時翻訳
- Authors: HyoJung Han, Seokchan Ahn, Yoonjung Choi, Insoo Chung, Sangha Kim,
Kyunghyun Cho
- Abstract要約: 本稿では,全文翻訳コーパスの目的側を並べ替え,洗練するアルゴリズムを提案する。
ソースとターゲットの文間の単語/フレーズは、単語アライメントと非自己回帰型ニューラルマシン翻訳を用いて、主に単調に配列される。
提案手法はBLEUのスコアを改良し,結果の翻訳により文の単調性が向上する。
- 参考スコア(独自算出の注目度): 38.89496608319392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in simultaneous machine translation is often trained with
conventional full sentence translation corpora, leading to either excessive
latency or necessity to anticipate as-yet-unarrived words, when dealing with a
language pair whose word orders significantly differ. This is unlike human
simultaneous interpreters who produce largely monotonic translations at the
expense of the grammaticality of a sentence being translated. In this paper, we
thus propose an algorithm to reorder and refine the target side of a full
sentence translation corpus, so that the words/phrases between the source and
target sentences are aligned largely monotonically, using word alignment and
non-autoregressive neural machine translation. We then train a widely used
wait-k simultaneous translation model on this reordered-and-refined corpus. The
proposed approach improves BLEU scores and resulting translations exhibit
enhanced monotonicity with source sentences.
- Abstract(参考訳): 機械翻訳における最近の研究は、従来の全文翻訳コーパスでしばしば訓練されており、単語の順序が著しく異なる言語対を扱う場合、過度なレイテンシや非誤りな単語を予測する必要が生じる。
これは、翻訳される文の文法性を犠牲にしてほとんど単調翻訳を行う人間の同時翻訳者とは異なる。
そこで本研究では,単語アライメントと非自己回帰型ニューラルマシン翻訳を用いて,ソース文とターゲット文の単語/フレーズが単調に並べられるように,全文翻訳コーパスのターゲット側を並べ替え,洗練するアルゴリズムを提案する。
そして、この再注文されたコーパス上で、広く使用されるwait-k同時翻訳モデルを訓練する。
提案手法はBLEUのスコアを改良し,結果の翻訳により文の単調性が向上する。
関連論文リスト
- Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - ngram-OAXE: Phrase-Based Order-Agnostic Cross Entropy for
Non-Autoregressive Machine Translation [51.06378042344563]
オートレグレッシブ翻訳(NAT)におけるマルチモーダリティの効果を改善できる新しい訓練用Oaxe損失が証明された
我々は、ngram 句間の並べ替えのみを許し、句内の単語順序の厳密な一致をいまだ必要とすることで oaxe を拡張する。
さらに分析したところ、ngram-oaxeは実際にngram句の翻訳を改善し、文構造をより良くモデル化してより流動的な翻訳を生成することがわかった。
論文 参考訳(メタデータ) (2022-10-08T11:39:15Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Simultaneous Neural Machine Translation with Constituent Label
Prediction [35.74159659906497]
同時翻訳は、話者が話す前に翻訳が始まるタスクである。
逐次成分ラベル予測により予測される次の成分のラベルを用いた簡易な決定規則を提案する。
日英同時翻訳実験において,提案手法は品質・レイテンシトレードオフにおいてベースラインを上回った。
論文 参考訳(メタデータ) (2021-10-26T08:23:20Z) - SimulMT to SimulST: Adapting Simultaneous Text Translation to End-to-End
Simultaneous Speech Translation [23.685648804345984]
テキストの同時翻訳とエンドツーエンドの音声翻訳は、最近大きな進歩を遂げているが、これらのタスクを組み合わさった作業はほとんどない。
我々は,事前決定モジュールを導入することで,待ち時間や単調マルチヘッドといった同時テキスト翻訳手法をエンドツーエンドの同時音声翻訳に適応させる方法について検討する。
固定およびフレキシブルな事前決定と固定およびフレキシブルなポリシーを組み合わせることで、レイテンシ品質のトレードオフを詳細に分析する。
論文 参考訳(メタデータ) (2020-11-03T22:47:58Z) - Improving Simultaneous Translation by Incorporating Pseudo-References
with Fewer Reorderings [24.997435410680378]
本稿では,既存の全文コーパスのターゲット側を同時翻訳に書き換える手法を提案する。
Zh->En と Ja->En の同時翻訳実験は、これらの擬似参照の追加により大幅に改善された。
論文 参考訳(メタデータ) (2020-10-21T19:03:06Z) - Lexically Cohesive Neural Machine Translation with Copy Mechanism [21.43163704217968]
我々は、従来の出力からの単語のコピーを可能にするために、文脈認識型ニューラルネットワーク翻訳モデルにコピー機構を用いる。
談話翻訳のための評価データセットを用いて、日本語から英語への翻訳実験を行う。
論文 参考訳(メタデータ) (2020-10-11T08:39:02Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Urdu-English Machine Transliteration using Neural Networks [0.0]
本稿では,教師なし言語に依存しない予測最大化(EM)に基づく翻訳手法を提案する。
システムは、パラレルコーパスからパターンと語彙外単語を学習し、明示的に音訳コーパスで学習する必要はない。
論文 参考訳(メタデータ) (2020-01-12T17:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。