論文の概要: Attentive fine-tuning of Transformers for Translation of low-resourced
languages @LoResMT 2021
- arxiv url: http://arxiv.org/abs/2108.08556v1
- Date: Thu, 19 Aug 2021 08:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-21 00:52:01.923892
- Title: Attentive fine-tuning of Transformers for Translation of low-resourced
languages @LoResMT 2021
- Title(参考訳): 低リソース言語@LoResMT 2021翻訳用トランスフォーマーの注意深い微調整
- Authors: Karthik Puranik, Adeep Hande, Ruba Priyadharshini, Thenmozi Durairaj,
Anbukkarasi Sampath, Kingston Pal Thamburaj, Bharathi Raja Chakravarthi
- Abstract要約: IndicTransは英語->Marathiのための事前訓練された多言語NMTモデルであり、外部並列コーパスを入力として追加訓練を行う。
我々は,Helsinki-NLP Opus MT English->Irish modelを後者の言語対に適用した。
チーム名はIIITTで、我々のシステムは、それぞれ1, 1, 2, English->Marathi, Irish-> English, and English->Irishにランク付けした。
- 参考スコア(独自算出の注目度): 0.1759008116536278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports the Machine Translation (MT) systems submitted by the
IIITT team for the English->Marathi and English->Irish language pairs LoResMT
2021 shared task. The task focuses on getting exceptional translations for
rather low-resourced languages like Irish and Marathi. We fine-tune IndicTrans,
a pretrained multilingual NMT model for English->Marathi, using external
parallel corpus as input for additional training. We have used a pretrained
Helsinki-NLP Opus MT English->Irish model for the latter language pair. Our
approaches yield relatively promising results on the BLEU metrics. Under the
team name IIITT, our systems ranked 1, 1, and 2 in English->Marathi,
Irish->English, and English->Irish, respectively.
- Abstract(参考訳): 英英英英英英英英英英語対LoResMT 2021共有タスクに対して,IIITTチームが提出した機械翻訳(MT)システムについて報告する。
このタスクはアイルランド語やマラタイ語のような低リソースの言語に対して、例外的な翻訳を得ることに焦点を当てている。
IndicTransは英語->Marathiのための事前訓練された多言語NMTモデルであり、外部並列コーパスを入力として追加訓練を行う。
我々は,Helsinki-NLP Opus MT English->Irish modelを後者の言語対に適用した。
我々の手法はBLEU測定値について比較的有望な結果をもたらす。
チーム名はIIITTで、我々のシステムは、それぞれ1, 1, 2, English->Marathi, Irish-> English, and English->Irishにランク付けした。
関連論文リスト
- NLIP_Lab-IITH Low-Resource MT System for WMT24 Indic MT Shared Task [9.476463361600826]
本稿では,WMT 24の低リソースインデックス言語翻訳タスクについて述べる。
我々の一次システムは、事前訓練されたモデルに基づく言語固有の微調整に基づいている。
我々は、eng$rightarrow$as, eng$rightarrow$kha, eng$rightarrow$lus, eng$rightarrow$mniの公式公試セットにおいて、50.6, 42.3, 54.9, 66.3のchrF2スコアを得る。
論文 参考訳(メタデータ) (2024-10-04T08:02:43Z) - The Effect of Normalization for Bi-directional Amharic-English Neural
Machine Translation [53.907805815477126]
本稿では,比較的大規模なアムハラ語-英語並列文データセットを提案する。
我々は、既存のFacebook M2M100事前学習モデルを微調整することで、双方向のアムハラ語翻訳モデルを構築する。
その結果, 両方向のアンハラ語・英語機械翻訳の性能は, アンハラ語ホモホン文字の正規化により向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-27T07:18:53Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual
Retrieval [66.69799641522133]
最先端のニューラルランカーは、お腹が空いていることで悪名高い。
現在のアプローチでは、英語データに基づいて訓練されたローダを、多言語エンコーダを用いて他の言語や言語間設定に転送するのが一般的である。
本研究では,Sparse Fine-Tuning Masks (SFTMs) とAdapters (Adapters) の2つのパラメータ効率のアプローチにより,より軽量で効果的なゼロショット転送が可能となることを示す。
論文 参考訳(メタデータ) (2022-04-05T15:44:27Z) - Findings of the LoResMT 2021 Shared Task on COVID and Sign Language for
Low-resource Languages [9.635289445173864]
低資源言語の機械翻訳技術に関する第4回ワークショップ(LoResMT)の一環として実施した。
英語$leftrightarrow$Irish, English$leftrightarrow$Marathi, Taiwanese Sign Language$leftrightarrow$Traditional Chinese。
論文 参考訳(メタデータ) (2021-08-14T17:52:13Z) - WeChat Neural Machine Translation Systems for WMT21 [22.51171167457826]
本稿では,WMT 2021 WeChatにおけるAIの参加について紹介する。
我々は、データフィルタリング、大規模合成データ生成、高度な微調整アプローチ、そしてSelf-BLEUベースのモデルアンサンブルを取り入れている。
日本語・中国語・日本語・英語・ドイツ語にそれぞれ36.9点,46.9点,27.8点,31.3点のBLEUスコアが得られた。
論文 参考訳(メタデータ) (2021-08-05T06:38:48Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - Reusing a Pretrained Language Model on Languages with Limited Corpora
for Unsupervised NMT [129.99918589405675]
本稿では,オープンソース言語上でのみ事前訓練されたLMを再利用する効果的な手法を提案する。
モノリンガルLMは両言語で微調整され、UNMTモデルの初期化に使用される。
我々のアプローチであるRE-LMは、英語・マケドニア語(En-Mk)と英語・アルバニア語(En-Sq)の競合言語間事前学習モデル(XLM)より優れています。
論文 参考訳(メタデータ) (2020-09-16T11:37:10Z) - Neural Machine Translation for Low-Resourced Indian Languages [4.726777092009554]
機械翻訳は、人間の関与なしにテキストを別の言語に変換する効果的な手法である。
本稿では,NMTを英語・タミル語・英語・マラヤラム語という,最も形態学的に豊かな2つの言語に適用した。
我々は,BPE(Byte-Pair-Encoded)とMultiBPE(MultiBPE)を併用したマルチヘッド自己アテンション(Multihead self-attention)を用いた新しいNMTモデルを提案し,効率的な翻訳システムを開発した。
論文 参考訳(メタデータ) (2020-04-19T17:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。