論文の概要: Tilde at WMT 2020: News Task Systems
- arxiv url: http://arxiv.org/abs/2010.15423v1
- Date: Thu, 29 Oct 2020 08:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:53:47.693273
- Title: Tilde at WMT 2020: News Task Systems
- Title(参考訳): tilde at wmt 2020: news task systems (英語)
- Authors: Rihards Kri\v{s}lauks, M\=arcis Pinnis
- Abstract要約: 本稿では、Tilde氏がWMT 2020に投稿した英語とポーランド語の両方の方向のニュース翻訳タスクについて述べる。
我々は,形態的に動機づけたサブワード単位ベースのトランスフォーマーベースモデルとして,ベースラインシステムを構築している。
最終モデルはTransformerベースとTransformerビッグモデルのアンサンブルで、左右に並べ替えられる。
- 参考スコア(独自算出の注目度): 0.38073142980733
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper describes Tilde's submission to the WMT2020 shared task on news
translation for both directions of the English-Polish language pair in both the
constrained and the unconstrained tracks. We follow our submissions from the
previous years and build our baseline systems to be morphologically motivated
sub-word unit-based Transformer base models that we train using the Marian
machine translation toolkit. Additionally, we experiment with different
parallel and monolingual data selection schemes, as well as sampled
back-translation. Our final models are ensembles of Transformer base and
Transformer big models that feature right-to-left re-ranking.
- Abstract(参考訳): 本稿では,TildeがWMT2020に投稿した英語とポーランド語の両方の方向のニュース翻訳タスクについて,制約付きトラックと制約なしトラックの両方で記述する。
マリアン機械翻訳ツールキットを用いて学習するサブワード単位ベースのトランスフォーマーモデルとして,前年からの提出を追従し,形態的動機付けによる基本システムを構築した。
さらに、異なる並列および単言語データ選択スキームを実験し、サンプル化バックトランスレーションを行った。
最終モデルはTransformerベースとTransformerビッグモデルのアンサンブルで、左右に並べ替えられる。
関連論文リスト
- HW-TSC's Submission to the CCMT 2024 Machine Translation Tasks [12.841065384808733]
我々はバイリンガル機械翻訳タスクとマルチドメイン機械翻訳タスクに参加する。
これら2つの翻訳タスクでは,正規化ドロップアウト,双方向トレーニング,データ多様化,前方翻訳,後方翻訳,交互学習,カリキュラム学習,トランスダクティブアンサンブル学習などの学習戦略を用いる。
論文 参考訳(メタデータ) (2024-09-23T09:20:19Z) - Choose the Final Translation from NMT and LLM hypotheses Using MBR Decoding: HW-TSC's Submission to the WMT24 General MT Shared Task [9.819139035652137]
本稿では,Huawei Translate Services Center(HW-TSC)をWMT24汎用機械翻訳(MT)共有タスクに提出する。
我々は、正規化ドロップアウト、双方向トレーニング、データ多様化、前方翻訳、後方翻訳、交互学習、カリキュラム学習、トランスダクティブアンサンブル学習などのトレーニング戦略を用いて、ニューラルマシン翻訳(NMT)モデルをトレーニングする。
論文 参考訳(メタデータ) (2024-09-23T08:25:37Z) - Summer: WeChat Neural Machine Translation Systems for the WMT22
Biomedical Translation Task [54.63368889359441]
本稿では,WeChatのWMT 2022への参加について紹介する。
我々のシステムはTransformerをベースにしており、翻訳の質を向上させるためにいくつかの異なるTransformer構造を使用している。
われわれの中国の$to$Englishシステムは、Summerと呼ばれ、すべての応募の中でBLEUのスコアが最も高い。
論文 参考訳(メタデータ) (2022-11-28T03:10:50Z) - Improved Data Augmentation for Translation Suggestion [28.672227843541656]
本稿では,WMT'22翻訳提案共有タスクに使用するシステムについて紹介する。
我々は3つの戦略を用いて並列コーパスから合成データを構築し、教師付きデータの欠如を補う。
私たちはそれぞれ、英語とドイツ語と英語と中国語の双方向タスクで第2位と第3位にランク付けします。
論文 参考訳(メタデータ) (2022-10-12T12:46:43Z) - The YiTrans End-to-End Speech Translation System for IWSLT 2022 Offline
Shared Task [92.5087402621697]
本稿では,IWSLT 2022オフラインタスクに対するエンドツーエンドYiTrans音声翻訳システムの提案について述べる。
YiTransシステムは、大規模な訓練済みエンコーダデコーダモデル上に構築されている。
最終提出は自動評価基準でまず英語・ドイツ語・英語・中国語のエンド・ツー・エンド・システムにランク付けする。
論文 参考訳(メタデータ) (2022-06-12T16:13:01Z) - XLM-T: Scaling up Multilingual Machine Translation with Pretrained
Cross-lingual Transformer Encoders [89.0059978016914]
そこで本稿では,既製のクロスリンガルトランスフォーマでモデルを初期化し,多言語並列データで微調整するXLM-Tを提案する。
この単純な方法は,10対のWMTデータセットと94対のOPUS-100コーパスにおいて,大幅な改善を実現する。
論文 参考訳(メタデータ) (2020-12-31T11:16:51Z) - DiDi's Machine Translation System for WMT2020 [51.296629834996246]
我々は中国語>英語の翻訳指導に参画する。
この方向では、ベースラインモデルとしてTransformerを使用します。
その結果,日英のBLEUスコアは36.6ドルとなった。
論文 参考訳(メタデータ) (2020-10-16T06:25:48Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Learning Contextualized Sentence Representations for Document-Level
Neural Machine Translation [59.191079800436114]
文書レベルの機械翻訳は、文間の依存関係をソース文の翻訳に組み込む。
本稿では,ニューラルマシン翻訳(NMT)を訓練し,文のターゲット翻訳と周辺文の双方を予測することによって,文間の依存関係をモデル化するフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T03:38:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。