論文の概要: The USTC-NELSLIP Systems for Simultaneous Speech Translation Task at
IWSLT 2021
- arxiv url: http://arxiv.org/abs/2107.00279v1
- Date: Thu, 1 Jul 2021 08:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 22:36:15.294496
- Title: The USTC-NELSLIP Systems for Simultaneous Speech Translation Task at
IWSLT 2021
- Title(参考訳): IWSLT2021における同時音声翻訳タスクのためのUSTC-NELSLIPシステム
- Authors: Dan Liu, Mengge Du, Xiaoxi Li, Yuchen Hu, Lirong Dai
- Abstract要約: 本稿では,USTC-NELSLIP による IWSLT 2021 同時音声翻訳タスクの提出について述べる。
我々は,従来のRNN-Tをシーケンス間タスクに拡張した新しい同時翻訳モデルであるCross Attention Augmented Transducer (CAAT)を提案する。
テキスト・トゥ・テキスト(S2T)とテキスト・トゥ・テキスト(T2T)の同時翻訳タスクの実験は、CAATがより良い品質とレイテンシのトレードオフを達成することを示す。
- 参考スコア(独自算出の注目度): 36.95800637790494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes USTC-NELSLIP's submissions to the IWSLT2021 Simultaneous
Speech Translation task. We proposed a novel simultaneous translation model,
Cross Attention Augmented Transducer (CAAT), which extends conventional RNN-T
to sequence-to-sequence tasks without monotonic constraints, e.g., simultaneous
translation. Experiments on speech-to-text (S2T) and text-to-text (T2T)
simultaneous translation tasks shows CAAT achieves better quality-latency
trade-offs compared to \textit{wait-k}, one of the previous state-of-the-art
approaches. Based on CAAT architecture and data augmentation, we build S2T and
T2T simultaneous translation systems in this evaluation campaign. Compared to
last year's optimal systems, our S2T simultaneous translation system improves
by an average of 11.3 BLEU for all latency regimes, and our T2T simultaneous
translation system improves by an average of 4.6 BLEU.
- Abstract(参考訳): 本稿では,USTC-NELSLIP による IWSLT2021 同時音声翻訳タスクの提出について述べる。
そこで本研究では,従来のrnn-tを単調な制約を伴わない逐次逐次処理に拡張した,同時翻訳モデルであるcross attention augmented transducer (caat)を提案する。
speech-to-text (s2t) と text-to-text (t2t) 同時翻訳タスクの実験は、caatが以前の最先端のアプローチである \textit{wait-k} よりも優れた品質・レイテンシトレードオフを達成していることを示している。
この評価キャンペーンでは,CAATアーキテクチャとデータ拡張に基づいて,S2TとT2T同時翻訳システムを構築した。
昨年の最適システムと比較すると、S2T同時翻訳システムは平均11.3BLEUで、T2T同時翻訳システムは平均4.6BLEUで改善されている。
関連論文リスト
- CMU's IWSLT 2024 Simultaneous Speech Translation System [80.15755988907506]
本稿では,CMU による IWSLT 2024 Simultaneous Speech Translation (SST) タスクへの提案について述べる。
本システムでは,WavLM音声エンコーダ,モダリティアダプタ,Llama2-7B-Baseモデルをデコーダとして統合する。
論文 参考訳(メタデータ) (2024-08-14T10:44:51Z) - Translation-Enhanced Multilingual Text-to-Image Generation [61.41730893884428]
テキスト・ツー・イメージ・ジェネレーション(TTI)の研究は、現在でも主に英語に焦点を当てている。
そこで本研究では,多言語TTIとニューラルマシン翻訳(NMT)のブートストラップmTTIシステムへの応用について検討する。
我々は,mTTIフレームワーク内で多言語テキスト知識を重み付け,統合する新しいパラメータ効率アプローチであるEnsemble Adapter (EnsAd)を提案する。
論文 参考訳(メタデータ) (2023-05-30T17:03:52Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - Incremental Speech Synthesis For Speech-To-Speech Translation [23.951060578077445]
本稿では,TSモデルの逐次合成性能の向上に焦点をあてる。
プレフィックスに基づく単純なデータ拡張戦略により、インクリメンタルTS品質を改善してオフラインパフォーマンスにアプローチすることが可能になります。
本稿では,S2STアプリケーションに適したレイテンシメトリクスを提案し,このコンテキストにおける遅延低減手法について検討する。
論文 参考訳(メタデータ) (2021-10-15T17:20:28Z) - The Volctrans GLAT System: Non-autoregressive Translation Meets WMT21 [25.41660831320743]
我々はGlancing Transformerを用いて並列(非自己回帰)翻訳システムを構築する。
本システムでは,ドイツ語から英語への翻訳作業において,BLEUスコア(35.0)を最高のスコアで達成し,高い自己回帰能力に優れる。
論文 参考訳(メタデータ) (2021-09-23T09:41:44Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - IMS' Systems for the IWSLT 2021 Low-Resource Speech Translation Task [38.899667657333595]
本稿では,IMS チームによる低リソース音声翻訳共有タスク IWSLT 2021 への提出について述べる。
自動音声認識(ASR)と機械翻訳(MT)のステップにおいて,最先端モデルと複数のデータ拡張,マルチタスク,トランスファー学習アプローチを組み合わせる。
論文 参考訳(メタデータ) (2021-06-30T13:29:19Z) - The Volctrans Neural Speech Translation System for IWSLT 2021 [26.058205594318405]
本稿では,Volctrans チームが IWSLT 2021 に提出したシステムについて述べる。
オフライン音声翻訳では,ベンチマークよりも8.1 BLEUの改善を実現している。
テキスト間同時翻訳では,wait-kモデルを最適化する最善の方法を検討する。
論文 参考訳(メタデータ) (2021-05-16T00:11:59Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - ON-TRAC Consortium for End-to-End and Simultaneous Speech Translation
Challenge Tasks at IWSLT 2020 [25.024259342365934]
ON-TRACコンソーシアムは、フランスの3つの学術研究所の研究者で構成されている。
学習したエンドツーエンドのアテンションベースエンコーダデコーダモデルを用いて、オフライン音声翻訳トラックへの提案を行った。
同時音声翻訳トラックでは,テキスト・トゥ・テキスト・サブタスクのための Transformer ベースのwait-k モデルを構築している。
論文 参考訳(メタデータ) (2020-05-24T23:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。