論文の概要: A Case Study on Filtering for End-to-End Speech Translation
- arxiv url: http://arxiv.org/abs/2402.01945v1
- Date: Fri, 2 Feb 2024 22:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 23:14:06.942322
- Title: A Case Study on Filtering for End-to-End Speech Translation
- Title(参考訳): エンドツーエンド音声翻訳におけるフィルタリングの一事例
- Authors: Md Mahfuz Ibn Alam and Antonios Anastasopoulos
- Abstract要約: 音声からテキストへの翻訳や音声から音声への翻訳など、機械学習タスクのための大きな並列コーパスのマイニングは比較的容易である。
この研究は、最も単純なフィルタリング技術が、これらの大きなノイズの多いデータセットを、より管理しやすいクリーンなデータセットにトリミングできることを示しています。
- 参考スコア(独自算出の注目度): 32.676738355929466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is relatively easy to mine a large parallel corpus for any machine
learning task, such as speech-to-text or speech-to-speech translation. Although
these mined corpora are large in volume, their quality is questionable. This
work shows that the simplest filtering technique can trim down these big, noisy
datasets to a more manageable, clean dataset. We also show that using this
clean dataset can improve the model's performance, as in the case of the
multilingual-to-English Speech Translation (ST) model, where, on average, we
obtain a 4.65 BLEU score improvement.
- Abstract(参考訳): 音声テキスト翻訳や音声音声翻訳など、機械学習タスクのための大きな並列コーパスのマイニングは比較的容易である。
これらの炭鉱コーパスは量が多いが、その品質は疑わしい。
この研究は、最も単純なフィルタリング技術が、これらの大きなノイズの多いデータセットを、より管理しやすいクリーンなデータセットにトリミングできることを示しています。
また,このクリーンなデータセットを使うことで,多言語間音声翻訳(st)モデルの場合のように,モデルの性能が向上し,平均して4.65 bleuスコアの改善が得られることを示した。
関連論文リスト
- Setting up the Data Printer with Improved English to Ukrainian Machine Translation [0.0]
ウクライナ語と英語の文の3M対のノイズの多い並列データセットを用いた翻訳システムを構築するためのレシピを提案する。
我々のデコーダのみのモデルであるDragomanは、FLORESデベロップメントセットのアーティファクトエンコーダ-デコーダモデルの性能を上回りました。
論文 参考訳(メタデータ) (2024-04-23T16:34:34Z) - SeamlessM4T: Massively Multilingual & Multimodal Machine Translation [90.71078166159295]
音声から音声への翻訳,音声からテキストへの翻訳,テキストからテキストへの翻訳,最大100言語の自動音声認識をサポートする単一モデルSeamlessM4Tを紹介する。
我々は、音声とテキストの両方に英語を翻訳できる最初の多言語システムを開発した。
FLEURSでは、SeamlessM4Tが複数のターゲット言語への翻訳の新しい標準を設定し、音声からテキストへの直接翻訳において、以前のSOTAよりも20%BLEUの改善を実現している。
論文 参考訳(メタデータ) (2023-08-22T17:44:18Z) - Separating Grains from the Chaff: Using Data Filtering to Improve
Multilingual Translation for Low-Resourced African Languages [0.6947064688250465]
本稿では,文対分類器を用いて与えられた雑音データをフィルタリングする手法について述べる。
2つの共通のデータセットから評価することで、我々のアプローチを実証的に検証し、データフィルタリングが全体的な翻訳品質を改善することを示す。
論文 参考訳(メタデータ) (2022-10-19T16:12:27Z) - On the Impact of Noises in Crowd-Sourced Data for Speech Translation [11.67083845641806]
MuST-Cは、音声テキストの誤調整、不正確な翻訳、不要な話者名という3つの大きな問題に悩まされている。
実験の結果, クリーンなテストセットではSTモデルの方が優れた性能を示し, 提案モデルのランクは異なるテストセット間で一貫性が保たれていることがわかった。
論文 参考訳(メタデータ) (2022-06-28T05:01:06Z) - Enhanced Direct Speech-to-Speech Translation Using Self-supervised
Pre-training and Data Augmentation [76.13334392868208]
直接音声音声変換(S2ST)モデルは、データ不足の問題に悩まされる。
本研究では,この課題に対処するために,ラベルのない音声データとデータ拡張を用いた自己教師付き事前学習について検討する。
論文 参考訳(メタデータ) (2022-04-06T17:59:22Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Self-Supervised Representations Improve End-to-End Speech Translation [57.641761472372814]
自己教師付き事前学習機能により,翻訳性能が一貫的に向上することを示す。
言語間の変換は、チューニングの必要なく、あるいはほとんどチューニングすることなく、さまざまな言語に拡張することができる。
論文 参考訳(メタデータ) (2020-06-22T10:28:38Z) - ESPnet-ST: All-in-One Speech Translation Toolkit [57.76342114226599]
ESPnet-STは、エンドツーエンドの音声処理ツールキットであるESPnet内の新しいプロジェクトである。
音声認識、機械翻訳、音声翻訳のための音声合成機能を実装する。
データ前処理、特徴抽出、トレーニング、デコードパイプラインを含むオールインワンのレシピを提供します。
論文 参考訳(メタデータ) (2020-04-21T18:38:38Z) - Machine Translation Pre-training for Data-to-Text Generation -- A Case
Study in Czech [5.609443065827995]
非英語言語におけるデータ・テキスト生成における機械翻訳に基づく事前学習の有効性について検討する。
事前トレーニングによって、パフォーマンスを大幅に向上したエンドツーエンドモデルのトレーニングが可能になります。
論文 参考訳(メタデータ) (2020-04-05T02:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。