論文の概要: Direct Models for Simultaneous Translation and Automatic Subtitling:
FBK@IWSLT2023
- arxiv url: http://arxiv.org/abs/2309.15554v1
- Date: Wed, 27 Sep 2023 10:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:13:17.401441
- Title: Direct Models for Simultaneous Translation and Automatic Subtitling:
FBK@IWSLT2023
- Title(参考訳): FBK@IWSLT2023 同時翻訳と自動置換のための直接モデル
- Authors: Sara Papi, Marco Gaido, Matteo Negri
- Abstract要約: 本稿では,FIWLT 2023評価キャンペーンにおけるFBKの同時翻訳・自動置換への参加について述べる。
私たちの提出は、両方のタスクを実行するための直接アーキテクチャの使用に焦点を当てました。
我々の英語-ドイツ語SimulSTシステムでは,タスクの2021年と2022年の上位システムに比べて,計算能力の低下が見られた。
- 参考スコア(独自算出の注目度): 26.001878009713597
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper describes the FBK's participation in the Simultaneous Translation
and Automatic Subtitling tracks of the IWSLT 2023 Evaluation Campaign. Our
submission focused on the use of direct architectures to perform both tasks:
for the simultaneous one, we leveraged the knowledge already acquired by
offline-trained models and directly applied a policy to obtain the real-time
inference; for the subtitling one, we adapted the direct ST model to produce
well-formed subtitles and exploited the same architecture to produce timestamps
needed for the subtitle synchronization with audiovisual content. Our
English-German SimulST system shows a reduced computational-aware latency
compared to the one achieved by the top-ranked systems in the 2021 and 2022
rounds of the task, with gains of up to 3.5 BLEU. Our automatic subtitling
system outperforms the only existing solution based on a direct system by 3.7
and 1.7 SubER in English-German and English-Spanish respectively.
- Abstract(参考訳): 本稿では,FIWLT 2023評価キャンペーンにおけるFBKの同時翻訳・自動置換への参加について述べる。
提案では,両方のタスクを実行するための直接アーキテクチャの使用に焦点を当てた: 同時処理では,オフライン学習モデルで取得した知識を活用し,リアルタイム推論を得るためのポリシを直接適用した。
我々の英語-ドイツ語SimulSTシステムでは、2021年と2022年の上位システムで達成されたシステムと比較して、最大3.5BLEUの遅延を減らしている。
自動サブティットリングシステムは,英語とドイツ語とスペイン語でそれぞれ3.7SubERと1.7SubERの直接システムに基づく唯一の既存ソリューションより優れている。
関連論文リスト
- KIT's Multilingual Speech Translation System for IWSLT 2023 [58.5152569458259]
IWSLT 2023の多言語トラックに対する音声翻訳システムについて述べる。
このタスクは、様々な量のリソースを持つ10の言語に翻訳する必要がある。
我々のケースド音声システムは、科学的な話の翻訳において、エンドツーエンドの音声よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-06-08T16:13:20Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Direct Speech Translation for Automatic Subtitling [17.095483965591267]
対象言語のサブタイトルとタイムスタンプを1つのモデルで生成する,自動サブタイピングのための最初の直接STモデルを提案する。
7つの言語対の実験により、我々のアプローチは、同じデータ条件下でカスケードシステムより優れていることが示された。
論文 参考訳(メタデータ) (2022-09-27T06:47:42Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - ON-TRAC Consortium Systems for the IWSLT 2022 Dialect and Low-resource
Speech Translation Tasks [8.651248939672769]
本稿では,IWSLT 2022の評価キャンペーンにおける2つの課題トラックに対して開発されたON-TRACコンソーシアム翻訳システムについて述べる。
ASRの大規模微調整wav2vec 2.0モデルを利用するカスケードモデルと比較した。
この結果から,小型のターゲットデータを用いた自己教師型モデルの方が,大規模な市販モデルに比べて低リソースのSTファインチューニングに有効であることが示唆された。
論文 参考訳(メタデータ) (2022-05-04T10:36:57Z) - CUNI-KIT System for Simultaneous Speech Translation Task at IWSLT 2022 [59.39104119817371]
我々は、オリジナルのモデルを変更することなく、オフラインモデルを同時設定で利用する戦略を適用した。
私たちのインライゼーションアルゴリズムは、オフライン設定とほぼ同等ですが、テストセットのレイテンシに関しては、オフラインよりも3倍高速です。
論文 参考訳(メタデータ) (2022-04-12T18:30:20Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - IMS' Systems for the IWSLT 2021 Low-Resource Speech Translation Task [38.899667657333595]
本稿では,IMS チームによる低リソース音声翻訳共有タスク IWSLT 2021 への提出について述べる。
自動音声認識(ASR)と機械翻訳(MT)のステップにおいて,最先端モデルと複数のデータ拡張,マルチタスク,トランスファー学習アプローチを組み合わせる。
論文 参考訳(メタデータ) (2021-06-30T13:29:19Z) - UPC's Speech Translation System for IWSLT 2021 [2.099922236065961]
本稿では,UPC 機械翻訳グループによる IWSLT 2021 オフライン音声翻訳タスクの提出について述べる。
タスクは、tedトークから抽出された英語の音声録音をドイツ語のテキストに翻訳できるシステムを構築することにある。
提案方式は,エンコーダとデコーダ間の結合モジュールと事前学習モデルを組み合わせた音声翻訳システムである。
論文 参考訳(メタデータ) (2021-05-10T17:04:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。