論文の概要: Lost in Interpreting: Speech Translation from Source or Interpreter?
- arxiv url: http://arxiv.org/abs/2106.09343v1
- Date: Thu, 17 Jun 2021 09:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:56:09.704251
- Title: Lost in Interpreting: Speech Translation from Source or Interpreter?
- Title(参考訳): lost in interpreting: ソースまたはインタプリタからの音声翻訳?
- Authors: Dominik Mach\'a\v{c}ek, Mat\'u\v{s} \v{Z}ilinec, Ond\v{r}ej Bojar
- Abstract要約: チェコ語とドイツ語を同時に解釈しながら、欧州議会の演説を英語で10時間の録音と書き起こしを公開します。
話者ベースおよびインタプリタベース音声翻訳システムの品質とレイテンシを英語からチェコ語に比較検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Interpreters facilitate multi-lingual meetings but the affordable set of
languages is often smaller than what is needed. Automatic simultaneous speech
translation can extend the set of provided languages. We investigate if such an
automatic system should rather follow the original speaker, or an interpreter
to achieve better translation quality at the cost of increased delay.
To answer the question, we release Europarl Simultaneous Interpreting Corpus
(ESIC), 10 hours of recordings and transcripts of European Parliament speeches
in English, with simultaneous interpreting into Czech and German. We evaluate
quality and latency of speaker-based and interpreter-based spoken translation
systems from English to Czech. We study the differences in implicit
simplification and summarization of the human interpreter compared to a machine
translation system trained to shorten the output to some extent. Finally, we
perform human evaluation to measure information loss of each of these
approaches.
- Abstract(参考訳): 解釈は多言語会議を促進するが、安価な言語セットは必要よりも小さいことが多い。
自動同時翻訳は、提供言語の集合を拡張することができる。
このような自動システムは、より遅れの少ない翻訳品質を実現するために、元の話者やインタプリタに従わなければならないかを検討する。
この質問に答えるために、europarl同時解釈コーパス(esic)、10時間の欧州議会演説の記録と書き起こしを英語で公開し、チェコ語とドイツ語を同時に解釈します。
話者ベースおよび通訳ベース音声翻訳システムの品質とレイテンシを英語からチェコ語まで評価した。
本研究では,機械翻訳システムと比較して,人間の通訳の暗黙的単純化と要約の違いについて検討した。
最後に,これら各手法の情報損失を測定するための人的評価を行う。
関連論文リスト
- Towards a Deep Understanding of Multilingual End-to-End Speech
Translation [52.26739715012842]
我々は22言語以上で訓練された多言語エンドツーエンド音声翻訳モデルで学習した表現を解析する。
我々は分析から3つの大きな発見を得た。
論文 参考訳(メタデータ) (2023-10-31T13:50:55Z) - SeamlessM4T: Massively Multilingual & Multimodal Machine Translation [90.71078166159295]
音声から音声への翻訳,音声からテキストへの翻訳,テキストからテキストへの翻訳,最大100言語の自動音声認識をサポートする単一モデルSeamlessM4Tを紹介する。
我々は、音声とテキストの両方に英語を翻訳できる最初の多言語システムを開発した。
FLEURSでは、SeamlessM4Tが複数のターゲット言語への翻訳の新しい標準を設定し、音声からテキストへの直接翻訳において、以前のSOTAよりも20%BLEUの改善を実現している。
論文 参考訳(メタデータ) (2023-08-22T17:44:18Z) - Automatic Discrimination of Human and Neural Machine Translation in
Multilingual Scenarios [4.631167282648452]
我々は人間と機械の翻訳を自動で識別するタスクに取り組む。
複数言語と多言語事前学習言語モデルを考慮した多言語環境で実験を行う。
論文 参考訳(メタデータ) (2023-05-31T11:41:24Z) - Robustness of Multi-Source MT to Transcription Errors [9.045660146260467]
多言語シナリオでは、同じ内容が同時解釈、ダビング、サブティチングを通じて様々な言語で利用することができる。
10時間のESICコーパスでは、原英語におけるASRの誤りと、ドイツ語とチェコ語への同時解釈が相互に独立していることが示されている。
この結果から,マルチソースニューラルマシン翻訳はリアルタイム同時翻訳において有用である可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-26T12:54:16Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - The Best of Both Worlds: Combining Human and Machine Translations for
Multilingual Semantic Parsing with Active Learning [50.320178219081484]
人文翻訳と機械翻訳の両方の長所を生かした能動的学習手法を提案する。
理想的な発話選択は、翻訳されたデータの誤りとバイアスを著しく低減することができる。
論文 参考訳(メタデータ) (2023-05-22T05:57:47Z) - BSTC: A Large-Scale Chinese-English Speech Translation Dataset [26.633433687767553]
BSTC (Baidu Speech Translation Corpus) は、中国語と英語の大規模翻訳データセットである。
このデータセットは、約68時間のマンダリンデータを含む講演や講義のライセンス付きビデオのコレクションに基づいて構築されている。
3名の経験豊富な通訳者に、模擬会議の設定で同時にテストトークを解釈するよう依頼しました。
論文 参考訳(メタデータ) (2021-04-08T07:38:51Z) - Fluent and Low-latency Simultaneous Speech-to-Speech Translation with
Self-adaptive Training [40.71155396456831]
音声から音声への同時翻訳は広く有用であるが,極めて困難である。
ソース言語音声と並行してターゲット言語音声を生成する必要があるが、わずか数秒遅れている。
現在のアプローチは、話者がより速く話すときの遅延を徐々に蓄積し、話者がゆっくり話すときの不自然な停止を導入する。
そこで本稿では,翻訳の長さを柔軟に調整し,異なる音源の音声レートに対応する自己適応翻訳(SAT)を提案する。
論文 参考訳(メタデータ) (2020-10-20T06:02:15Z) - "Listen, Understand and Translate": Triple Supervision Decouples
End-to-end Speech-to-text Translation [49.610188741500274]
エンドツーエンドの音声テキスト翻訳(ST)は、ソース言語で音声を取り、ターゲット言語でテキストを出力する。
既存の方法は並列コーパスの量によって制限される。
並列STコーパスで信号を完全に活用するシステムを構築した。
論文 参考訳(メタデータ) (2020-09-21T09:19:07Z) - Self-Supervised Representations Improve End-to-End Speech Translation [57.641761472372814]
自己教師付き事前学習機能により,翻訳性能が一貫的に向上することを示す。
言語間の変換は、チューニングの必要なく、あるいはほとんどチューニングすることなく、さまざまな言語に拡張することができる。
論文 参考訳(メタデータ) (2020-06-22T10:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。