論文の概要: CUNI Systems for the Unsupervised and Very Low Resource Translation Task
in WMT20
- arxiv url: http://arxiv.org/abs/2010.11747v1
- Date: Thu, 22 Oct 2020 14:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:42:12.991195
- Title: CUNI Systems for the Unsupervised and Very Low Resource Translation Task
in WMT20
- Title(参考訳): WMT20における教師なし・極低リソース翻訳タスクのためのCUNIシステム
- Authors: Ivana Kvapil\'ikov\'a, Tom Kocmi, Ond\v{r}ej Bojar
- Abstract要約: 本稿では,WMT20タスクに係わるCUNIシステムについて,ドイツ語とアッパー・ソルビアン語間の教師なし機械翻訳について述べる。
完全に監督されていないシナリオでは、上ソルビアンから23.7 BLEUを翻訳し、25.5 と 23.7 のBLEUを達成しました。
我々の低リソースシステムは、ドイツ・チェコの並列データからの転送学習に依存し、57.4 BLEUと56.1 BLEUを達成した。
- 参考スコア(独自算出の注目度): 3.183845608678763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a description of CUNI systems submitted to the WMT20 task
on unsupervised and very low-resource supervised machine translation between
German and Upper Sorbian. We experimented with training on synthetic data and
pre-training on a related language pair. In the fully unsupervised scenario, we
achieved 25.5 and 23.7 BLEU translating from and into Upper Sorbian,
respectively. Our low-resource systems relied on transfer learning from
German-Czech parallel data and achieved 57.4 BLEU and 56.1 BLEU, which is an
improvement of 10 BLEU points over the baseline trained only on the available
small German-Upper Sorbian parallel corpus.
- Abstract(参考訳): 本稿では、ドイツと上ソルビアン間の非教師なしおよび非常に低リソースの機械翻訳に関するwmt20タスクに提出されたcuniシステムについて述べる。
我々は、合成データと関連する言語対の事前学習のトレーニングを実験した。
完全に教師されていないシナリオでは、それぞれ上ソルビアンから25.5 BLEUと23.7 BLEUを翻訳した。
我々の低リソースシステムは、ドイツ・チェコの並列データからの移動学習に依存し、57.4 BLEUと56.1 BLEUを達成した。
関連論文リスト
- Boosting Unsupervised Machine Translation with Pseudo-Parallel Data [2.900810893770134]
本研究では,モノリンガルコーパスから抽出した擬似並列文対と,モノリンガルコーパスから逆転写された合成文対を利用する訓練戦略を提案する。
裏書きされたデータのみに基づいてトレーニングされたベースラインに対して、最大14.5 BLEUポイント(ウクライナ語)の改善を達成しました。
論文 参考訳(メタデータ) (2023-10-22T10:57:12Z) - NAVER LABS Europe's Multilingual Speech Translation Systems for the
IWSLT 2023 Low-Resource Track [78.80683163990446]
本稿では,IWSLT 2023low-Resource trackにおけるタマシェク・フレンチ・ケチュア・スペイン語音声翻訳のためのNAVER LABS Europeのシステムについて述べる。
本研究は,多言語パラメータ効率ソリューションを用いた低リソース環境における翻訳品質の最大化を試みる。
論文 参考訳(メタデータ) (2023-06-13T13:22:30Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Bilingual Dictionary-based Language Model Pretraining for Neural Machine
Translation [0.0]
辞書からの翻訳情報をプリトレーニングプロセスに組み込み、新しいバイリンガル辞書ベース言語モデル(BDLM)を提案します。
BDLMを中国語、英語、ルーマニア語で評価します。
論文 参考訳(メタデータ) (2021-03-12T02:01:22Z) - The LMU Munich System for the WMT 2020 Unsupervised Machine Translation
Shared Task [125.06737861979299]
本稿では,LMUミュンヘンのWMT 2020における非教師なし共有タスクへの2つの言語方向の提出について述べる。
我々のunsupervised neural machine translation (UNMT) システムは Chronopoulou et al の戦略に従っている。
我々は、最高の性能のシステムを集め、ドイツ語で32.4点、上セルビアで35.2点、ドイツで35.2点に達した。
論文 参考訳(メタデータ) (2020-10-25T19:04:03Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。