論文の概要: Full-Sentence Models Perform Better in Simultaneous Translation Using
the Information Enhanced Decoding Strategy
- arxiv url: http://arxiv.org/abs/2105.01893v1
- Date: Wed, 5 May 2021 07:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 19:13:29.936645
- Title: Full-Sentence Models Perform Better in Simultaneous Translation Using
the Information Enhanced Decoding Strategy
- Title(参考訳): 情報強化復号戦略を用いた同時翻訳における完全文モデルの性能向上
- Authors: Zhengxin Yang
- Abstract要約: シンプルで効果的な復号戦略を採用した新しいフレームワークを提案する。
このフレームワーク内では、1つのフル文モデルをトレーニングすることで任意の遅延を達成でき、計算リソースを節約できる。
実験の結果, 4方向のベースラインよりも高い翻訳品質が得られることがわかった。
- 参考スコア(独自算出の注目度): 3.3504365823045044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneous translation, which starts translating each sentence after
receiving only a few words in source sentence, has a vital role in many
scenarios. Although the previous prefix-to-prefix framework is considered
suitable for simultaneous translation and achieves good performance, it still
has two inevitable drawbacks: the high computational resource costs caused by
the need to train a separate model for each latency $k$ and the insufficient
ability to encode information because each target token can only attend to a
specific source prefix. We propose a novel framework that adopts a simple but
effective decoding strategy which is designed for full-sentence models. Within
this framework, training a single full-sentence model can achieve arbitrary
given latency and save computational resources. Besides, with the competence of
the full-sentence model to encode the whole sentence, our decoding strategy can
enhance the information maintained in the decoded states in real time.
Experimental results show that our method achieves better translation quality
than baselines on 4 directions: Zh$\rightarrow$En, En$\rightarrow$Ro and
En$\leftrightarrow$De.
- Abstract(参考訳): ソース文で数単語のみを受信した後、各文の翻訳を開始する同時翻訳は、多くのシナリオにおいて重要な役割を果たす。
以前のプレフィックス・トゥ・プレフィックス・フレームワークは同時翻訳に適していると考えられ、性能が良いが、各レイテンシー$k$の個別モデルをトレーニングする必要による高い計算リソースコストと、各ターゲットトークンが特定のソースプレフィックスにのみ対応できるため、情報をエンコードする能力の2つの欠点がある。
完全文モデル用に設計された,単純かつ効果的な復号化戦略を採用する新しいフレームワークを提案する。
このフレームワーク内では、1つのフル文モデルをトレーニングすることで任意の遅延を達成でき、計算リソースを節約できる。
さらに,全文をエンコードする完全文モデルの能力により,復号化戦略は,復号化状態に保持されている情報をリアルタイムに強化することができる。
実験の結果,zh$\rightarrow$en,en$\rightarrow$ro,en$\leftrightarrow$deの4方向のベースラインよりも高い翻訳品質が得られることがわかった。
関連論文リスト
- Plug, Play, and Fuse: Zero-Shot Joint Decoding via Word-Level Re-ranking Across Diverse Vocabularies [12.843274390224853]
マルチモーダル翻訳のような現実世界のタスクは、翻訳と画像処理の両方を扱うなど、これらの強みの組み合わせを必要とすることが多い。
新たなゼロショットアンサンブル戦略を提案し,デコードフェーズにおいて,追加のトレーニングを必要とせずに,異なるモデルの統合を可能にする。
提案手法では,単語レベルでのスコアを組み合わせ,単語がいつ完了するかをマルチモーダルで予測することで,復号中にビームを再ランクする。
論文 参考訳(メタデータ) (2024-08-21T04:20:55Z) - Language Model is a Branch Predictor for Simultaneous Machine
Translation [73.82754138171587]
翻訳遅延を低減するため,SiMTタスクに分岐予測手法を組み込むことを提案する。
言語モデルを分岐予測器として利用し,潜在的な分岐方向を予測する。
実際のソース語が予測されたソース語から逸脱すると、実際のソース語を使用して出力を復号し、予測された出力を置き換える。
論文 参考訳(メタデータ) (2023-12-22T07:32:47Z) - Exploring Linguistic Similarity and Zero-Shot Learning for Multilingual
Translation of Dravidian Languages [0.34998703934432673]
我々はDravidian-Dravidian多言語翻訳のための単一デコーダニューラルマシン翻訳システムを構築した。
我々のモデルは、50%の言語方向で訓練された場合、大規模ピボットベースモデルの3 BLEU以内のスコアを得る。
論文 参考訳(メタデータ) (2023-08-10T13:38:09Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - BitextEdit: Automatic Bitext Editing for Improved Low-Resource Machine
Translation [53.55009917938002]
自動編集によりマイニングしたビットクストを改良することを提案する。
提案手法は,5つの低リソース言語ペアと10の翻訳方向に対して,最大8個のBLEUポイントでCCMatrixマイニングビットクストの品質を向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T16:00:39Z) - Two-Way Neural Machine Translation: A Proof of Concept for Bidirectional
Translation Modeling using a Two-Dimensional Grid [47.39346022004215]
本稿では,2次元グリッドを用いた一対一の双方向翻訳モデルを提案する。
2つのモデルを個別に訓練する代わりに、我々のアプローチは1つのネットワークが両方向の翻訳を共同で学習することを奨励する。
論文 参考訳(メタデータ) (2020-11-24T15:42:32Z) - Consecutive Decoding for Speech-to-text Translation [51.155661276936044]
COnSecutive Transcription and Translation (COSTT)は、音声からテキストへの翻訳に不可欠な手法である。
鍵となるアイデアは、ソースの書き起こしとターゲットの翻訳テキストを1つのデコーダで生成することである。
本手法は3つの主流データセットで検証する。
論文 参考訳(メタデータ) (2020-09-21T10:10:45Z) - Incorporating Bilingual Dictionaries for Low Resource Semi-Supervised
Neural Machine Translation [5.958653653305609]
我々は、単語・バイ・ワードの翻訳によって合成文を生成する、広く利用可能なバイリンガル辞書を組み込んだ。
これにより、高品質なコンテンツを維持しながら、モデルの語彙を自動的に拡張する。
論文 参考訳(メタデータ) (2020-04-05T02:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。