論文の概要: NAVER LABS Europe's Multilingual Speech Translation Systems for the
IWSLT 2023 Low-Resource Track
- arxiv url: http://arxiv.org/abs/2306.07763v1
- Date: Tue, 13 Jun 2023 13:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 13:31:34.268519
- Title: NAVER LABS Europe's Multilingual Speech Translation Systems for the
IWSLT 2023 Low-Resource Track
- Title(参考訳): NAVER LABS Europe's Multilingual Speech Translation System for the IWSLT 2023 Low-Resource Track
- Authors: Edward Gow-Smith, Alexandre Berard, Marcely Zanon Boito, Ioan
Calapodescu
- Abstract要約: 本稿では,IWSLT 2023low-Resource trackにおけるタマシェク・フレンチ・ケチュア・スペイン語音声翻訳のためのNAVER LABS Europeのシステムについて述べる。
本研究は,多言語パラメータ効率ソリューションを用いた低リソース環境における翻訳品質の最大化を試みる。
- 参考スコア(独自算出の注目度): 78.80683163990446
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents NAVER LABS Europe's systems for Tamasheq-French and
Quechua-Spanish speech translation in the IWSLT 2023 Low-Resource track. Our
work attempts to maximize translation quality in low-resource settings using
multilingual parameter-efficient solutions that leverage strong pre-trained
models. Our primary submission for Tamasheq outperforms the previous state of
the art by 7.5 BLEU points on the IWSLT 2022 test set, and achieves 23.6 BLEU
on this year's test set, outperforming the second best participant by 7.7
points. For Quechua, we also rank first and achieve 17.7 BLEU, despite having
only two hours of translation data. Finally, we show that our proposed
multilingual architecture is also competitive for high-resource languages,
outperforming the best unconstrained submission to the IWSLT 2021 Multilingual
track, despite using much less training data and compute.
- Abstract(参考訳): 本稿では,IWSLT 2023におけるタマシェク・フレンチ・ケチュア・スペイン語音声翻訳のためのNAVER LABS Europeのシステムについて述べる。
強固な事前学習モデルを活用した多言語パラメータ効率の高い解を用いて,低リソース環境での翻訳品質の最大化を試みる。
我々は,iwslt 2022テストセットにおいて,前回より7.5点,今年のテストセットでは23.6点,前回より7.7点,前回より23.6点,前回テストセットでは7.7点であった。
quechuaでは、翻訳データが2時間しかないにもかかわらず、第一にランク付けして17.7 bleuを達成しています。
最後に,提案した多言語アーキテクチャは,トレーニングデータや計算量を大幅に削減したにもかかわらず,IWSLT 2021 Multilingual Trackに対する最も制約のない提案よりも優れていることを示す。
関連論文リスト
- NusaMT-7B: Machine Translation for Low-Resource Indonesian Languages with Large Language Models [2.186901738997927]
本稿では,低リソースインドネシア語用機械翻訳モデルであるNusaMT-7Bを紹介する。
提案手法は, 単言語データ, Supervised Fine-Tuning (SFT) , 自己学習, LLMベースのデータクリーナーを併用し, 並列文のノイズを低減する。
この結果から,LLMの微調整により,低リソース言語への翻訳品質が向上し,言語保存や異文化間コミュニケーションに寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:33:25Z) - KIT's Multilingual Speech Translation System for IWSLT 2023 [58.5152569458259]
IWSLT 2023の多言語トラックに対する音声翻訳システムについて述べる。
このタスクは、様々な量のリソースを持つ10の言語に翻訳する必要がある。
我々のケースド音声システムは、科学的な話の翻訳において、エンドツーエンドの音声よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-06-08T16:13:20Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - IMS' Systems for the IWSLT 2021 Low-Resource Speech Translation Task [38.899667657333595]
本稿では,IMS チームによる低リソース音声翻訳共有タスク IWSLT 2021 への提出について述べる。
自動音声認識(ASR)と機械翻訳(MT)のステップにおいて,最先端モデルと複数のデータ拡張,マルチタスク,トランスファー学習アプローチを組み合わせる。
論文 参考訳(メタデータ) (2021-06-30T13:29:19Z) - The Volctrans Neural Speech Translation System for IWSLT 2021 [26.058205594318405]
本稿では,Volctrans チームが IWSLT 2021 に提出したシステムについて述べる。
オフライン音声翻訳では,ベンチマークよりも8.1 BLEUの改善を実現している。
テキスト間同時翻訳では,wait-kモデルを最適化する最善の方法を検討する。
論文 参考訳(メタデータ) (2021-05-16T00:11:59Z) - Bilingual Dictionary-based Language Model Pretraining for Neural Machine
Translation [0.0]
辞書からの翻訳情報をプリトレーニングプロセスに組み込み、新しいバイリンガル辞書ベース言語モデル(BDLM)を提案します。
BDLMを中国語、英語、ルーマニア語で評価します。
論文 参考訳(メタデータ) (2021-03-12T02:01:22Z) - Multilingual Speech Translation with Efficient Finetuning of Pretrained
Models [82.22294901727933]
最小限のLNA(LayerNorm and Attention)ファインタニングは、ゼロショットのクロスリンガルおよびクロスモーダリティ転送能力を実現することができる。
本手法は多言語多言語モデルにおいて強いゼロショット性能を示す。
論文 参考訳(メタデータ) (2020-10-24T08:15:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。