論文の概要: UvA-MT's Participation in the WMT23 General Translation Shared Task
- arxiv url: http://arxiv.org/abs/2310.09946v1
- Date: Sun, 15 Oct 2023 20:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:21:19.895909
- Title: UvA-MT's Participation in the WMT23 General Translation Shared Task
- Title(参考訳): WMT23汎用翻訳タスクにおけるUvA-MTの参加
- Authors: Di Wu, Shaomu Tan, David Stap, Ali Araabi, Christof Monz
- Abstract要約: 本稿では,UvA-MTがWMT 2023に提案した汎用機械翻訳タスクについて述べる。
そこで本研究では,一方のモデルを用いて双方向タスクを処理することにより,従来のバイリンガル翻訳と同等の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 7.4336950563281174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the UvA-MT's submission to the WMT 2023 shared task on
general machine translation. We participate in the constrained track in two
directions: English <-> Hebrew. In this competition, we show that by using one
model to handle bidirectional tasks, as a minimal setting of Multilingual
Machine Translation (MMT), it is possible to achieve comparable results with
that of traditional bilingual translation for both directions. By including
effective strategies, like back-translation, re-parameterized embedding table,
and task-oriented fine-tuning, we obtained competitive final results in the
automatic evaluation for both English -> Hebrew and Hebrew -> English
directions.
- Abstract(参考訳): 本稿では,UvA-MTがWMT 2023に提案した汎用機械翻訳タスクについて述べる。
制約付きトラックには,英語<->ヘブライ語という2つの方向で参加する。
本コンペティションでは,多言語機械翻訳(MMT)の最小設定として,一方のモデルを用いて双方向タスクを処理することにより,両方向の従来のバイリンガル翻訳と同等の結果が得られることを示す。
逆翻訳,再パラメータ化埋め込み表,タスク指向の微調整などの効果的な戦略を含めることで,英語 ->ヘブライ語とヘブライ語 ->英語方向の自動評価において,競争的な最終結果を得た。
関連論文リスト
- Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - CUNI Submission in WMT22 General Task [1.9356648007558004]
We present the CUNI-Bergamot submit for the WMT22 General translation task。
従来の研究と比較すると、COMETスコアと名前付きエンティティの翻訳精度で性能を計測する。
論文 参考訳(メタデータ) (2022-11-29T13:06:09Z) - TSMind: Alibaba and Soochow University's Submission to the WMT22
Translation Suggestion Task [16.986003476984965]
本稿では,Alibaba と Soochow 大学 TSMind の WMT 2022 Shared Task on Translation Suggestion への共同提出について述べる。
基本的に、大規模な事前学習モデルに基づいて、下流タスクを微調整するモデルパラダイムを利用する。
トレーニングデータの限られた使用状況を考えると,WeTSが提案するデータ拡張戦略に従えば,TSモデルの性能が向上する。
論文 参考訳(メタデータ) (2022-11-16T15:43:31Z) - The Effect of Normalization for Bi-directional Amharic-English Neural
Machine Translation [53.907805815477126]
本稿では,比較的大規模なアムハラ語-英語並列文データセットを提案する。
我々は、既存のFacebook M2M100事前学習モデルを微調整することで、双方向のアムハラ語翻訳モデルを構築する。
その結果, 両方向のアンハラ語・英語機械翻訳の性能は, アンハラ語ホモホン文字の正規化により向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-27T07:18:53Z) - A Bilingual Parallel Corpus with Discourse Annotations [82.07304301996562]
本稿では,Jiang et al. (2022)で最初に導入された大きな並列コーパスであるBWBと,注釈付きテストセットについて述べる。
BWBコーパスは、専門家によって英語に翻訳された中国の小説で構成されており、注釈付きテストセットは、様々な談話現象をモデル化する機械翻訳システムの能力を調査するために設計されている。
論文 参考訳(メタデータ) (2022-10-26T12:33:53Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - The JHU-Microsoft Submission for WMT21 Quality Estimation Shared Task [14.629380601429956]
本稿では,WMT 2021の品質評価共有タスクに対するJHU-Microsoft共同提案を提案する。
我々は,目標側の単語レベルの品質評価に焦点をあて,共有タスクのタスク2(後編集作業推定)にのみ参加する。
我々は,広く採用されているOpenKiwi-XLMベースラインと比較して,システムの競争力を示す。
論文 参考訳(メタデータ) (2021-09-17T19:13:31Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。