論文の概要: Opportunistic Decoding with Timely Correction for Simultaneous
Translation
- arxiv url: http://arxiv.org/abs/2005.00675v1
- Date: Sat, 2 May 2020 01:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:26:10.723572
- Title: Opportunistic Decoding with Timely Correction for Simultaneous
Translation
- Title(参考訳): 同時翻訳のための時間補正によるオポチュニティデコーディング
- Authors: Renjie Zheng and Mingbo Ma and Baigong Zheng and Kaibo Liu and Liang
Huang
- Abstract要約: 本稿では,時間的補正能力を持つ機会論的復号手法を提案する。
実験の結果,中国語と英語と中国語の翻訳では8%以下で,レイテンシの大幅な低減とBLEUの+3.1増加を実現していることがわかった。
- 参考スコア(独自算出の注目度): 28.897290991945734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous translation has many important application scenarios and
attracts much attention from both academia and industry recently. Most existing
frameworks, however, have difficulties in balancing between the translation
quality and latency, i.e., the decoding policy is usually either too aggressive
or too conservative. We propose an opportunistic decoding technique with timely
correction ability, which always (over-)generates a certain mount of extra
words at each step to keep the audience on track with the latest information.
At the same time, it also corrects, in a timely fashion, the mistakes in the
former overgenerated words when observing more source context to ensure high
translation quality. Experiments show our technique achieves substantial
reduction in latency and up to +3.1 increase in BLEU, with revision rate under
8% in Chinese-to-English and English-to-Chinese translation.
- Abstract(参考訳): 同時翻訳は多くの重要な応用シナリオを持ち、近年は学術と産業の両方から多くの注目を集めている。
しかし、既存のフレームワークの多くは、翻訳品質とレイテンシのバランスをとるのが難しいため、デコードポリシーは通常、攻撃的すぎるか保守的すぎるかのいずれかである。
そこで本研究では,各ステップで一定の単語のマウントを常に(過剰に)生成し,最新の情報を用いてオーディエンスを追跡する,タイムリーな補正機能を備えた日和見的復号手法を提案する。
同時に、より多くのソースコンテキストを観察して高い翻訳品質を確保する場合、前者が過剰に生成した単語の誤りをタイムリーに補正する。
実験により,本手法は,中国語から英語への翻訳において8%以下で,レイテンシーが大幅に減少し,bleuが+3.1まで上昇することを示した。
関連論文リスト
- Modeling Context With Linear Attention for Scalable Document-Level
Translation [72.41955536834702]
本稿では,近年の文書翻訳における線形アテンションモデルの有効性について検討し,直流帰納バイアスを促進するためにセンデンシャルゲートで拡張する。
感性ゲーティングはIWSLTの翻訳品質をさらに向上させることを示す。
論文 参考訳(メタデータ) (2022-10-16T03:41:50Z) - Non-Autoregressive Neural Machine Translation: A Call for Clarity [3.1447111126465]
我々は、非自己回帰的翻訳モデルを改善するために提案されたいくつかの手法を再検討する。
我々は,長文予測やCTCに基づくアーキテクチャ変種を用いて,強力なベースラインを確立するための新たな洞察を提供する。
4つの翻訳タスクに対してsareBLEUを用いて,標準化されたBLEU,chrF++,TERスコアをコントリビュートする。
論文 参考訳(メタデータ) (2022-05-21T12:15:22Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Time-Aware Ancient Chinese Text Translation and Inference [6.787414471399024]
我々は、古代漢文の翻訳をめぐる課題に対処することを目指している。
時代の違いによる言語的なギャップは、質の悪い翻訳をもたらす。
ほとんどの翻訳は、しばしばテキストを理解するのに非常に重要な文脈情報を欠いている。
論文 参考訳(メタデータ) (2021-07-07T12:23:52Z) - Improving Translation Robustness with Visual Cues and Error Correction [58.97421756225425]
ノイズの多いテキストに対する翻訳の堅牢性を改善するビジュアルコンテキストのアイデアを紹介します。
また,誤り訂正を補助タスクとして扱うことで,新しい誤り訂正訓練手法を提案する。
論文 参考訳(メタデータ) (2021-03-12T15:31:34Z) - Improving Simultaneous Translation by Incorporating Pseudo-References
with Fewer Reorderings [24.997435410680378]
本稿では,既存の全文コーパスのターゲット側を同時翻訳に書き換える手法を提案する。
Zh->En と Ja->En の同時翻訳実験は、これらの擬似参照の追加により大幅に改善された。
論文 参考訳(メタデータ) (2020-10-21T19:03:06Z) - SimulEval: An Evaluation Toolkit for Simultaneous Translation [59.02724214432792]
テキストと音声の同時翻訳は、リアルタイムと低レイテンシのシナリオに焦点を当てている。
SimulEvalは、テキストと音声の同時翻訳のための、使いやすくて汎用的な評価ツールキットである。
論文 参考訳(メタデータ) (2020-07-31T17:44:41Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z) - Low Latency ASR for Simultaneous Speech Translation [27.213294097841853]
我々は,音声認識と音声翻訳モジュールの両コンポーネントのレイテンシを低減するために,いくつかの手法を開発した。
ストリーム復号と動的出力更新のためのプロトコルを用いて,ランオン復号とストリーム復号時の安定部分仮説を同定する手法を組み合わせた。
この組み合わせは単語レベルでの遅延を減らし、単語は最終であり、将来は18.1sから1.1sまで性能を犠牲にすることなく更新されることはない。
論文 参考訳(メタデータ) (2020-03-22T13:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。