論文の概要: An Empirical Study of End-to-end Simultaneous Speech Translation
Decoding Strategies
- arxiv url: http://arxiv.org/abs/2103.03233v1
- Date: Thu, 4 Mar 2021 18:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 15:00:54.570852
- Title: An Empirical Study of End-to-end Simultaneous Speech Translation
Decoding Strategies
- Title(参考訳): エンドツーエンド同時音声翻訳復号戦略の実証的研究
- Authors: Ha Nguyen, Yannick Est\`eve, Laurent Besacier
- Abstract要約: 本稿では,エンドツーエンドの同時音声翻訳のためのデコード戦略を提案する。
オフラインモードで訓練されたエンドツーエンドモデルを活用し、2つの言語ペアの実証的研究を行う。
- 参考スコア(独自算出の注目度): 17.78024523121448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a decoding strategy for end-to-end simultaneous speech
translation. We leverage end-to-end models trained in offline mode and conduct
an empirical study for two language pairs (English-to-German and
English-to-Portuguese). We also investigate different output token
granularities including characters and Byte Pair Encoding (BPE) units. The
results show that the proposed decoding approach allows to control BLEU/Average
Lagging trade-off along different latency regimes. Our best decoding settings
achieve comparable results with a strong cascade model evaluated on the
simultaneous translation track of IWSLT 2020 shared task.
- Abstract(参考訳): 本稿では,エンドツーエンドの同時音声翻訳のためのデコード戦略を提案する。
オフラインモードで訓練されたエンドツーエンドモデルを活用し、2つの言語ペア(英語-ドイツ語と英語-ポルトガル語)の実証的研究を行います。
また,文字やByte Pair Encoding (BPE)ユニットなど,さまざまな出力トークンの粒度についても検討する。
その結果, BLEU/Average Laggingのトレードオフを, 異なる遅延方式で制御できることが示された。
最適な復号化設定は,IWSLT 2020共有タスクの同時翻訳トラックで評価された強力なカスケードモデルにより,同等の結果が得られる。
関連論文リスト
- Multilingual Contrastive Decoding via Language-Agnostic Layers Skipping [60.458273797431836]
対照的なレイヤ(DoLa)によるデコーディングは、大規模言語モデルの生成品質を改善するために設計されている。
このアプローチは英語以外のタスクではうまくいきません。
モデルの前方通過における言語遷移に関する従来の解釈可能性の研究から着想を得て,改良されたコントラスト復号アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-15T15:14:01Z) - Unlocking Efficiency in Large Language Model Inference: A Comprehensive Survey of Speculative Decoding [46.485363806259265]
投機的デコーディングは、LLM(Large Language Models)推論のための新しいデコーディングパラダイムとして登場した。
復号処理の各ステップにおいて、この手法はまず、複数の将来のトークンを効率的にドラフトし、それらを並列に検証する。
本稿では,この有望な復号化パラダイムの概観と解析について述べる。
論文 参考訳(メタデータ) (2024-01-15T17:26:50Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - VECO 2.0: Cross-lingual Language Model Pre-training with
Multi-granularity Contrastive Learning [56.47303426167584]
複数粒度アライメントを持つコントラスト学習に基づく言語間事前学習モデルVECO2.0を提案する。
具体的には、シーケンス・ツー・シーケンスアライメントが誘導され、並列対の類似性を最大化し、非並列対を最小化する。
トークン・ツー・トークンのアライメントは、シソーラス辞書を介して発掘された同義トークンと、バイリンガルな例の他の未使用トークンとのギャップを埋めるために統合される。
論文 参考訳(メタデータ) (2023-04-17T12:23:41Z) - Impact of Encoding and Segmentation Strategies on End-to-End
Simultaneous Speech Translation [17.78024523121448]
本稿では, 終末同時音声翻訳の2つの重要な側面として, 連続した音声の流れを効率よく符号化する方法と, 音声の流れをセグメント化する方法について検討する。
提案したエンド・ツー・エンドのオンラインデコーディング戦略を拡張し,MLSTMエンコーディングによるBLSTMの置き換えはオフラインモードで性能を劣化させるが,オンラインモードでの効率と性能を実際に向上させることを示す。
論文 参考訳(メタデータ) (2021-04-29T16:33:08Z) - Bridging the Modality Gap for Speech-to-Text Translation [57.47099674461832]
エンド・ツー・エンドの音声翻訳は、ある言語における音声を、エンド・ツー・エンドの方法で他の言語におけるテキストに変換することを目的としている。
既存のほとんどの手法では、音響表現と意味情報を同時に学習するために、単一のエンコーダを持つエンコーダ・デコーダ構造を用いる。
本稿では,音声とテキスト間のモダリティギャップを埋めることで,エンドツーエンドのモデル性能を向上させることを目的とした音声翻訳モデルのための音声テキスト適応手法を提案する。
論文 参考訳(メタデータ) (2020-10-28T12:33:04Z) - SimulEval: An Evaluation Toolkit for Simultaneous Translation [59.02724214432792]
テキストと音声の同時翻訳は、リアルタイムと低レイテンシのシナリオに焦点を当てている。
SimulEvalは、テキストと音声の同時翻訳のための、使いやすくて汎用的な評価ツールキットである。
論文 参考訳(メタデータ) (2020-07-31T17:44:41Z) - Learning Coupled Policies for Simultaneous Machine Translation using
Imitation Learning [85.70547744787]
本稿では,プログラマ-解釈ポリシーを併用した同時翻訳モデルを効率よく学習する手法を提案する。
6つの言語対の実験により,翻訳品質の点で,本手法は高いベースラインを達成できた。
論文 参考訳(メタデータ) (2020-02-11T10:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。