論文の概要: Tagged End-to-End Simultaneous Speech Translation Training using
Simultaneous Interpretation Data
- arxiv url: http://arxiv.org/abs/2306.08582v1
- Date: Wed, 14 Jun 2023 15:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 18:30:21.764775
- Title: Tagged End-to-End Simultaneous Speech Translation Training using
Simultaneous Interpretation Data
- Title(参考訳): 同時解釈データを用いたタグ付きエンドツーエンド同時音声翻訳訓練
- Authors: Yuka Ko, Ryo Fukuda, Yuta Nishikawa, Yasumasa Kano, Katsuhito Sudoh,
Satoshi Nakamura
- Abstract要約: SIとオフラインの混合データを用いてSimulSTモデルをトレーニングする効果的な方法を提案する。
実験結果から, BLEURTのレイテンシの異なる範囲での改善が示された。
- 参考スコア(独自算出の注目度): 16.05089716626287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous speech translation (SimulST) translates partial speech inputs
incrementally. Although the monotonic correspondence between input and output
is preferable for smaller latency, it is not the case for distant language
pairs such as English and Japanese. A prospective approach to this problem is
to mimic simultaneous interpretation (SI) using SI data to train a SimulST
model. However, the size of such SI data is limited, so the SI data should be
used together with ordinary bilingual data whose translations are given in
offline. In this paper, we propose an effective way to train a SimulST model
using mixed data of SI and offline. The proposed method trains a single model
using the mixed data with style tags that tell the model to generate SI- or
offline-style outputs. Experiment results show improvements of BLEURT in
different latency ranges, and our analyses revealed the proposed model
generates SI-style outputs more than the baseline.
- Abstract(参考訳): 同時音声翻訳(SimulST)は部分的な音声入力を漸進的に翻訳する。
入力と出力のモノトニック対応は、より小さなレイテンシーでは望ましいが、英語や日本語のような遠方の言語ペアではそうではない。
この問題に対する先進的なアプローチは、SIデータを用いて同時解釈(SI)を模倣し、SimulSTモデルをトレーニングすることである。
しかし、そのようなSIデータのサイズは限られているため、SIデータはオフラインで翻訳される通常のバイリンガルデータと併用されるべきである。
本稿では,SIとオフラインの混合データを用いたSimulSTモデルを効果的に訓練する方法を提案する。
提案手法は、モデルにSI型またはオフライン型の出力を生成するよう指示するスタイルタグと混合データを用いて単一のモデルを訓練する。
実験結果から, BLEURTの低遅延域における改善が示され, 提案モデルがベースラインよりもSIスタイルの出力を生成することが明らかとなった。
関連論文リスト
- Word Order in English-Japanese Simultaneous Interpretation: Analyses and Evaluation using Chunk-wise Monotonic Translation [13.713981533436135]
本稿では,ソース言語の単語順に従う単調翻訳の特徴を同時解釈(SI)で解析する。
NAIST英語と日本語の単調翻訳評価データセットを用いて,チャンクワイド単調翻訳(CMT)文の特徴を解析した。
さらに,既存の音声翻訳(ST)と同時音声翻訳(simulST)モデルからの出力を評価し,CMT文の特徴について検討した。
論文 参考訳(メタデータ) (2024-06-13T09:10:16Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - NAIST-SIC-Aligned: an Aligned English-Japanese Simultaneous Interpretation Corpus [23.49376007047965]
同時解釈(SI)データが同時機械翻訳(SiMT)に与える影響は依然として疑問である。
自動整列した英語と日本語のSIデータセットであるNAIST-SIC-Alignedを導入する。
その結果,SIデータでトレーニングしたモデルでは,ベースラインよりも翻訳品質とレイテンシが大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-04-23T23:03:58Z) - Improving Simultaneous Machine Translation with Monolingual Data [94.1085601198393]
同時機械翻訳(SiMT)は通常、全文ニューラルネットワーク翻訳(NMT)モデルからシーケンスレベルの知識蒸留(Seq-KD)によって行われる。
本稿では,Sq-KD で蒸留した外部モノリンガルデータとバイリンガルデータを組み合わせて,SiMT の学生を訓練する SiMT の改善のためにモノリンガルデータを活用することを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:13:53Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - RealTranS: End-to-End Simultaneous Speech Translation with Convolutional
Weighted-Shrinking Transformer [33.876412404781846]
RealTranSは、同時音声翻訳のためのエンドツーエンドモデルである。
音声特徴を重み付き収縮操作と意味エンコーダでテキスト空間にマッピングする。
実験により、Wait-K-Stride-N戦略を用いたRealTranSは、従来のエンドツーエンドモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-09T06:35:46Z) - Cross-language Sentence Selection via Data Augmentation and Rationale
Training [22.106577427237635]
雑音のある並列文データに対するデータ拡張と負のサンプリング技術を用いて、言語間埋め込みに基づくクエリ関連モデルの学習を行う。
その結果、同じ並列データでトレーニングされた複数の最先端機械翻訳+モノリンガル検索システムよりも、このアプローチが優れているか、あるいは優れていることが示された。
論文 参考訳(メタデータ) (2021-06-04T07:08:47Z) - Self-Training Sampling with Monolingual Data Uncertainty for Neural
Machine Translation [98.83925811122795]
並列データを補完するために最も情報に富んだ単言語文を選択することでサンプリング手順を改善することを提案する。
並列データから抽出したバイリンガル辞書を用いて単言語文の不確実性を計算した。
大規模WMT英語$Rightarrow$Germanと英語$Rightarrow$ Chineseデータセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-06-02T05:01:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。