論文の概要: UvA-MT's Participation in the WMT23 General Translation Shared Task
- arxiv url: http://arxiv.org/abs/2310.09946v1
- Date: Sun, 15 Oct 2023 20:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:21:19.895909
- Title: UvA-MT's Participation in the WMT23 General Translation Shared Task
- Title(参考訳): WMT23汎用翻訳タスクにおけるUvA-MTの参加
- Authors: Di Wu, Shaomu Tan, David Stap, Ali Araabi, Christof Monz
- Abstract要約: 本稿では,UvA-MTがWMT 2023に提案した汎用機械翻訳タスクについて述べる。
そこで本研究では,一方のモデルを用いて双方向タスクを処理することにより,従来のバイリンガル翻訳と同等の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 7.4336950563281174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the UvA-MT's submission to the WMT 2023 shared task on
general machine translation. We participate in the constrained track in two
directions: English <-> Hebrew. In this competition, we show that by using one
model to handle bidirectional tasks, as a minimal setting of Multilingual
Machine Translation (MMT), it is possible to achieve comparable results with
that of traditional bilingual translation for both directions. By including
effective strategies, like back-translation, re-parameterized embedding table,
and task-oriented fine-tuning, we obtained competitive final results in the
automatic evaluation for both English -> Hebrew and Hebrew -> English
directions.
- Abstract(参考訳): 本稿では,UvA-MTがWMT 2023に提案した汎用機械翻訳タスクについて述べる。
制約付きトラックには,英語<->ヘブライ語という2つの方向で参加する。
本コンペティションでは,多言語機械翻訳(MMT)の最小設定として,一方のモデルを用いて双方向タスクを処理することにより,両方向の従来のバイリンガル翻訳と同等の結果が得られることを示す。
逆翻訳,再パラメータ化埋め込み表,タスク指向の微調整などの効果的な戦略を含めることで,英語 ->ヘブライ語とヘブライ語 ->英語方向の自動評価において,競争的な最終結果を得た。
関連論文リスト
- HW-TSC's Submission to the CCMT 2024 Machine Translation Tasks [12.841065384808733]
我々はバイリンガル機械翻訳タスクとマルチドメイン機械翻訳タスクに参加する。
これら2つの翻訳タスクでは,正規化ドロップアウト,双方向トレーニング,データ多様化,前方翻訳,後方翻訳,交互学習,カリキュラム学習,トランスダクティブアンサンブル学習などの学習戦略を用いる。
論文 参考訳(メタデータ) (2024-09-23T09:20:19Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - CUNI Submission in WMT22 General Task [1.9356648007558004]
We present the CUNI-Bergamot submit for the WMT22 General translation task。
従来の研究と比較すると、COMETスコアと名前付きエンティティの翻訳精度で性能を計測する。
論文 参考訳(メタデータ) (2022-11-29T13:06:09Z) - TSMind: Alibaba and Soochow University's Submission to the WMT22
Translation Suggestion Task [16.986003476984965]
本稿では,Alibaba と Soochow 大学 TSMind の WMT 2022 Shared Task on Translation Suggestion への共同提出について述べる。
基本的に、大規模な事前学習モデルに基づいて、下流タスクを微調整するモデルパラダイムを利用する。
トレーニングデータの限られた使用状況を考えると,WeTSが提案するデータ拡張戦略に従えば,TSモデルの性能が向上する。
論文 参考訳(メタデータ) (2022-11-16T15:43:31Z) - The Effect of Normalization for Bi-directional Amharic-English Neural
Machine Translation [53.907805815477126]
本稿では,比較的大規模なアムハラ語-英語並列文データセットを提案する。
我々は、既存のFacebook M2M100事前学習モデルを微調整することで、双方向のアムハラ語翻訳モデルを構築する。
その結果, 両方向のアンハラ語・英語機械翻訳の性能は, アンハラ語ホモホン文字の正規化により向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-27T07:18:53Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - The JHU-Microsoft Submission for WMT21 Quality Estimation Shared Task [14.629380601429956]
本稿では,WMT 2021の品質評価共有タスクに対するJHU-Microsoft共同提案を提案する。
我々は,目標側の単語レベルの品質評価に焦点をあて,共有タスクのタスク2(後編集作業推定)にのみ参加する。
我々は,広く採用されているOpenKiwi-XLMベースラインと比較して,システムの競争力を示す。
論文 参考訳(メタデータ) (2021-09-17T19:13:31Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。