論文の概要: English2Gbe: A multilingual machine translation model for {Fon/Ewe}Gbe
- arxiv url: http://arxiv.org/abs/2112.11482v1
- Date: Mon, 13 Dec 2021 10:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 14:49:14.436596
- Title: English2Gbe: A multilingual machine translation model for {Fon/Ewe}Gbe
- Title(参考訳): English2Gbe:Fon/Ewe}Gbeの多言語機械翻訳モデル
- Authors: Gilles Hacheme
- Abstract要約: 本稿では,英語からEwe or Fonへの翻訳が可能な多言語ニューラルマシン翻訳モデルである English2Gbe を紹介する。
英語2Gbeはバイリンガルモデル(Ewe と English Fon )より優れており、Fon の JW300 ベンチマークでは最先端の結果が得られている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Language is an essential factor of emancipation. Unfortunately, most of the
more than 2,000 African languages are low-resourced. The community has recently
used machine translation to revive and strengthen several African languages.
However, the trained models are often bilingual, resulting in a potentially
exponential number of models to train and maintain to cover all possible
translation directions. Additionally, bilingual models do not leverage the
similarity between some of the languages. Consequently, multilingual neural
machine translation (NMT) is gaining considerable interest, especially for
low-resourced languages. Nevertheless, its adoption by the community is still
limited. This paper introduces English2Gbe, a multilingual NMT model capable of
translating from English to Ewe or Fon. Using the BLEU, CHRF, and TER scores
computed with the Sacrebleu (Post, 2018) package for reproducibility, we show
that English2Gbe outperforms bilingual models (English to Ewe and English to
Fon) and gives state-of-the-art results on the JW300 benchmark for Fon
established by Nekoto et al. (2020). We hope this work will contribute to the
massive adoption of Multilingual models inside the community. Our code is made
accessible from Github.
- Abstract(参考訳): 言語は解放の重要な要素である。
残念ながら、2000以上のアフリカの言語のほとんどは低リソースである。
コミュニティは最近、いくつかのアフリカの言語を復活させ強化するために機械翻訳を使用している。
しかし、訓練されたモデルは、しばしばバイリンガルであり、潜在的に指数関数的な数のモデルが、可能な全ての翻訳方向を訓練し維持する。
さらに、バイリンガルモデルはいくつかの言語間の類似性を利用しない。
その結果,低リソース言語では多言語ニューラルネットワーク翻訳(NMT)が注目されている。
それでもコミュニティによる採用は限られている。
本稿では,英語からEwe or Fonへの翻訳が可能な多言語NMTモデルである English2Gbe を紹介する。
BLEU, CHRF, TERスコアを再現性のためにSacrebleu (Post, 2018) パッケージで計算した結果, English2Gbe はバイリンガルモデル (Ewe と English to Fon ) より優れており,Nekoto et al. (2020) によって確立された Fon の JW300 ベンチマーク(英語版) で最先端の結果が得られた。
この取り組みがコミュニティ内での多言語モデルの採用に大きく貢献することを期待しています。
私たちのコードはgithubからアクセスできます。
関連論文リスト
- Paramanu: A Family of Novel Efficient Generative Foundation Language Models for Indian Languages [3.9018931027384056]
インド語のための新しい言語モデル(LM)のファミリーである「Paramanu」を提示する。
10の言語(アッサム語、バングラ語、ヒンディー語、コンカニ語、マイティシ語、マラティ語、オディア語、サンスクリット語、タミル語、テルグ語)を5文字でカバーしている。
モデルは、コンテキストサイズが1024の1つのGPUで事前トレーニングされており、サイズは13.29万(M)から367.5Mまで様々である。
論文 参考訳(メタデータ) (2024-01-31T17:58:10Z) - Investigating the Translation Performance of a Large Multilingual
Language Model: the Case of BLOOM [8.858671209228536]
複数のデータセットにまたがる機械翻訳性能を評価することで,BLOOMの多言語能力に着目する。
本稿では, 素早い設計, モデルサイズ, 言語間移動, 帰納的文脈の利用など, 様々な側面について検討する。
論文 参考訳(メタデータ) (2023-03-03T13:23:42Z) - Language Models are Multilingual Chain-of-Thought Reasoners [83.37148309771378]
本稿では,250の小学校数学問題を10の類型的多言語に手動で翻訳することで,多言語学級数学のベンチマークを導入する。
MGSM問題をチェーン・オブ・ソートにより解く能力は,モデルスケールの増大とともに出現する。
言語モデルの多言語推論能力は他のタスクにも及んでいることを示す。
論文 参考訳(メタデータ) (2022-10-06T17:03:34Z) - Language-Family Adapters for Low-Resource Multilingual Neural Machine
Translation [129.99918589405675]
自己超越で訓練された大規模多言語モデルは、幅広い自然言語処理タスクにおいて最先端の結果を達成する。
マルチリンガルな微調整は低リソース言語のパフォーマンスを向上させるが、モデル全体を変更する必要があるため、極めて高価である。
言語間移動を容易にするため,mBART-50上で言語ファミリーアダプタを訓練する。
論文 参考訳(メタデータ) (2022-09-30T05:02:42Z) - Learning to translate by learning to communicate [11.43638897327485]
我々は,最新のunsupervised NMTシステムを改善するために,事前学習された多言語モデルを用いてEmergent Communication (EC)を使用する手法を定式化し,検証する。
提案手法では,多言語モデルを用いて視覚的なタスクを遂行するために,多言語世代をインセンティブとしたEC画像参照ゲームに,多言語モデルを組み込む。
本報告では,2種類のECファインチューニング(Steinert-Threlkeld et al., 2022)について述べる。
論文 参考訳(メタデータ) (2022-07-14T15:58:06Z) - Generalizing Multimodal Pre-training into Multilingual via Language
Acquisition [54.69707237195554]
英語のVision-Language Pre-Trainingは、様々な下流タスクで大きな成功を収めた。
この成功を英語以外の言語に一般化するために、Multilingual Vision-Language Pre-Trainingを通じていくつかの取り組みがなされている。
単言語視覚言語事前学習モデルを多言語に容易に一般化できるtextbfMultitextbfLingual textbfAcquisition (MLA) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-29T08:53:22Z) - Multilingual Language Model Adaptive Fine-Tuning: A Study on African
Languages [19.067718464786463]
我々は、アフリカ大陸で広く話されている17の最もリソースの多いアフリカ言語と他の3つの高リソース言語に対して、多言語適応微調整(MAFT)を行う。
多言語 PLM をさらに専門化するため,MAFT 以前の非アフリカ文字スクリプトに対応する埋め込み層から語彙トークンを除去した。
当社のアプローチでは,LAFTを個々の言語に適用する上で,ディスクスペースを大幅に削減する。
論文 参考訳(メタデータ) (2022-04-13T16:13:49Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。