論文の概要: Findings of the Covid-19 MLIA Machine Translation Task
- arxiv url: http://arxiv.org/abs/2211.07465v1
- Date: Mon, 14 Nov 2022 15:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:38:21.831917
- Title: Findings of the Covid-19 MLIA Machine Translation Task
- Title(参考訳): Covid-19 MLIA 機械翻訳タスクの発見
- Authors: Francisco Casacuberta, Alexandru Ceausu, Khalid Choukri, Miltos
Deligiannis, Miguel Domingo, Mercedes Garc\'ia-Mart\'inez, Manuel Herranz,
Guillaume Jacquet, Vassilis Papavassiliou, Stelios Piperidis, Prokopis
Prokopidis, Dimitris Roussis, and Marwa Hadj Salah
- Abstract要約: この研究は、Covid-19 MLIA @ Evalイニシアチブの機械翻訳(MT)タスクの結果を提示する。
9チームがこのイベントに参加し、2ラウンドに分かれ、7つの異なる言語ペアが参加した。
全体として、最良のアプローチは多言語モデルとトランスファーラーニングに基づいており、トレーニングデータにクリーニングプロセスを適用することの重要性を強調している。
- 参考スコア(独自算出の注目度): 45.8251505347275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents the results of the machine translation (MT) task from the
Covid-19 MLIA @ Eval initiative, a community effort to improve the generation
of MT systems focused on the current Covid-19 crisis. Nine teams took part in
this event, which was divided in two rounds and involved seven different
language pairs. Two different scenarios were considered: one in which only the
provided data was allowed, and a second one in which the use of external
resources was allowed. Overall, best approaches were based on multilingual
models and transfer learning, with an emphasis on the importance of applying a
cleaning process to the training data.
- Abstract(参考訳): この研究は、現在のCovid-19危機に焦点を当てたMTシステムの生成を改善するコミュニティ取り組みである、Covid-19 MLIA @ Evalイニシアチブの機械翻訳(MT)タスクの結果を提示する。
9チームがこのイベントに参加し、2ラウンドに分かれ、7つの異なる言語ペアが参加した。
提供されたデータのみを許可するシナリオと、外部リソースの使用を許可するシナリオという2つのシナリオが検討された。
全体として、最良のアプローチは多言語モデルとトランスファーラーニングに基づいており、トレーニングデータにクリーニングプロセスを適用することの重要性を強調している。
関連論文リスト
- Team QUST at SemEval-2024 Task 8: A Comprehensive Study of Monolingual
and Multilingual Approaches for Detecting AI-generated Text [0.1499944454332829]
本稿では,タスク8SemEval 2024におけるチームQUSTの参加について述べる。
最初にデータセット上でデータ拡張とクリーニングを行い、モデルのトレーニング効率と精度を高めた。
単言語課題では,従来のディープラーニング手法,MPU,ファインチューニング,アダプタ,アンサンブル手法を評価した。
論文 参考訳(メタデータ) (2024-02-19T08:22:51Z) - UvA-MT's Participation in the WMT23 General Translation Shared Task [7.4336950563281174]
本稿では,UvA-MTがWMT 2023に提案した汎用機械翻訳タスクについて述べる。
そこで本研究では,一方のモデルを用いて双方向タスクを処理することにより,従来のバイリンガル翻訳と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-10-15T20:49:31Z) - UBC-DLNLP at SemEval-2023 Task 12: Impact of Transfer Learning on
African Sentiment Analysis [5.945320097465418]
14の異なるアフリカの言語における感情分析の課題に取り組む。
完全教師付き環境下で単言語モデルと多言語モデルの両方を開発する。
本研究は,感情分析における伝達学習と微調整技術の有効性を実証するものである。
論文 参考訳(メタデータ) (2023-04-21T21:25:14Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Building Multilingual Machine Translation Systems That Serve Arbitrary
X-Y Translations [75.73028056136778]
任意のX-Y翻訳方向に対応するMNMTシステムを実際に構築する方法を示す。
また,本提案手法を,実用的な展開シナリオに対応するため,極めて大規模なデータ設定で検討した。
論文 参考訳(メタデータ) (2022-06-30T02:18:15Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z) - Netmarble AI Center's WMT21 Automatic Post-Editing Shared Task
Submission [6.043109546012043]
本稿では,Netmarble による WMT21 Automatic Post-Editing (APE) Shared Task for the English-German Language pairについて述べる。
Facebook FairのWMT19ニュース翻訳モデルは、大規模で強力なトレーニング済みニューラルネットワークを扱うために選ばれた。
性能向上のために、トレーニング後および微調整時に、外部翻訳を拡張機械翻訳(MT)として活用する。
論文 参考訳(メタデータ) (2021-09-14T08:21:18Z) - Zero-shot Cross-lingual Transfer of Neural Machine Translation with
Multilingual Pretrained Encoders [74.89326277221072]
多言語プリトレーニング済みエンコーダによるNMTモデルのクロスリンガル転送を改善する方法は、未検討です。
このタスクのシンプルで効果的なモデルであるSixTを提案します。
私達のモデルはCRISSおよびm2m-100より多くの英語テストセットでよりよい性能を達成します。
論文 参考訳(メタデータ) (2021-04-18T07:42:45Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - UPB at SemEval-2020 Task 9: Identifying Sentiment in Code-Mixed Social
Media Texts using Transformers and Multi-Task Learning [1.7196613099537055]
本研究チームは,SemEval-2020 Task 9のために開発したシステムについて述べる。
私たちは、ヒンディー語とスペイン語の2つのよく知られた混成言語をカバーすることを目指しています。
提案手法は, 平均F1スコアが0.6850であるヒンディー語タスクにおいて, 有望な性能を達成する。
スペイン語と英語のタスクでは、29人中17人として、平均で0.7064のF1スコアを獲得しました。
論文 参考訳(メタデータ) (2020-09-06T17:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。