論文の概要: Direct Models for Simultaneous Translation and Automatic Subtitling:
FBK@IWSLT2023
- arxiv url: http://arxiv.org/abs/2309.15554v1
- Date: Wed, 27 Sep 2023 10:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:13:17.401441
- Title: Direct Models for Simultaneous Translation and Automatic Subtitling:
FBK@IWSLT2023
- Title(参考訳): FBK@IWSLT2023 同時翻訳と自動置換のための直接モデル
- Authors: Sara Papi, Marco Gaido, Matteo Negri
- Abstract要約: 本稿では,FIWLT 2023評価キャンペーンにおけるFBKの同時翻訳・自動置換への参加について述べる。
私たちの提出は、両方のタスクを実行するための直接アーキテクチャの使用に焦点を当てました。
我々の英語-ドイツ語SimulSTシステムでは,タスクの2021年と2022年の上位システムに比べて,計算能力の低下が見られた。
- 参考スコア(独自算出の注目度): 26.001878009713597
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper describes the FBK's participation in the Simultaneous Translation
and Automatic Subtitling tracks of the IWSLT 2023 Evaluation Campaign. Our
submission focused on the use of direct architectures to perform both tasks:
for the simultaneous one, we leveraged the knowledge already acquired by
offline-trained models and directly applied a policy to obtain the real-time
inference; for the subtitling one, we adapted the direct ST model to produce
well-formed subtitles and exploited the same architecture to produce timestamps
needed for the subtitle synchronization with audiovisual content. Our
English-German SimulST system shows a reduced computational-aware latency
compared to the one achieved by the top-ranked systems in the 2021 and 2022
rounds of the task, with gains of up to 3.5 BLEU. Our automatic subtitling
system outperforms the only existing solution based on a direct system by 3.7
and 1.7 SubER in English-German and English-Spanish respectively.
- Abstract(参考訳): 本稿では,FIWLT 2023評価キャンペーンにおけるFBKの同時翻訳・自動置換への参加について述べる。
提案では,両方のタスクを実行するための直接アーキテクチャの使用に焦点を当てた: 同時処理では,オフライン学習モデルで取得した知識を活用し,リアルタイム推論を得るためのポリシを直接適用した。
我々の英語-ドイツ語SimulSTシステムでは、2021年と2022年の上位システムで達成されたシステムと比較して、最大3.5BLEUの遅延を減らしている。
自動サブティットリングシステムは,英語とドイツ語とスペイン語でそれぞれ3.7SubERと1.7SubERの直接システムに基づく唯一の既存ソリューションより優れている。
関連論文リスト
- CMU's IWSLT 2024 Simultaneous Speech Translation System [80.15755988907506]
本稿では,CMU による IWSLT 2024 Simultaneous Speech Translation (SST) タスクへの提案について述べる。
本システムでは,WavLM音声エンコーダ,モダリティアダプタ,Llama2-7B-Baseモデルをデコーダとして統合する。
論文 参考訳(メタデータ) (2024-08-14T10:44:51Z) - NAIST Simultaneous Speech Translation System for IWSLT 2024 [18.77311658086372]
本稿では,IWSLT 2024評価キャンペーンの同時進行に対するNAISTの提出について述べる。
We developed a multilingual end-to-end speech-to-text translation model with two-trained language model, HuBERT and mBART。
私たちはこのモデルを、ローカルアグリーメント(LA)とAlignAttという2つのデコードポリシでトレーニングしました。
音声から音声への変換法は,上述した音声からテキストへの変換モデルのカスケードであり,TTSモジュールをインクリメンタルに生成する。
論文 参考訳(メタデータ) (2024-06-30T20:41:02Z) - KIT's Multilingual Speech Translation System for IWSLT 2023 [58.5152569458259]
IWSLT 2023の多言語トラックに対する音声翻訳システムについて述べる。
このタスクは、様々な量のリソースを持つ10の言語に翻訳する必要がある。
我々のケースド音声システムは、科学的な話の翻訳において、エンドツーエンドの音声よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-06-08T16:13:20Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - ON-TRAC Consortium Systems for the IWSLT 2022 Dialect and Low-resource
Speech Translation Tasks [8.651248939672769]
本稿では,IWSLT 2022の評価キャンペーンにおける2つの課題トラックに対して開発されたON-TRACコンソーシアム翻訳システムについて述べる。
ASRの大規模微調整wav2vec 2.0モデルを利用するカスケードモデルと比較した。
この結果から,小型のターゲットデータを用いた自己教師型モデルの方が,大規模な市販モデルに比べて低リソースのSTファインチューニングに有効であることが示唆された。
論文 参考訳(メタデータ) (2022-05-04T10:36:57Z) - CUNI-KIT System for Simultaneous Speech Translation Task at IWSLT 2022 [59.39104119817371]
我々は、オリジナルのモデルを変更することなく、オフラインモデルを同時設定で利用する戦略を適用した。
私たちのインライゼーションアルゴリズムは、オフライン設定とほぼ同等ですが、テストセットのレイテンシに関しては、オフラインよりも3倍高速です。
論文 参考訳(メタデータ) (2022-04-12T18:30:20Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - UPC's Speech Translation System for IWSLT 2021 [2.099922236065961]
本稿では,UPC 機械翻訳グループによる IWSLT 2021 オフライン音声翻訳タスクの提出について述べる。
タスクは、tedトークから抽出された英語の音声録音をドイツ語のテキストに翻訳できるシステムを構築することにある。
提案方式は,エンコーダとデコーダ間の結合モジュールと事前学習モデルを組み合わせた音声翻訳システムである。
論文 参考訳(メタデータ) (2021-05-10T17:04:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。