論文の概要: $\varepsilon$ K\'U : Integrating Yor\`ub\'a cultural greetings
into machine translation
- arxiv url: http://arxiv.org/abs/2303.17972v2
- Date: Mon, 24 Apr 2023 16:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 20:30:13.456658
- Title: $\varepsilon$ K\'U <MASK>: Integrating Yor\`ub\'a cultural greetings
into machine translation
- Title(参考訳): $\varepsilon$ K\'U <MASK>:Yor\`ub\'a文化挨拶を機械翻訳に統合する
- Authors: Idris Akinade, Jesujoba Alabi, David Adelani, Clement Odoje and
Dietrich Klakow
- Abstract要約: 本稿では,Yorub'a の挨拶を含む Yorub'a 翻訳データセットである IkiniYorub'a について紹介する。
GoogleやNLLBなどの多言語NMTシステムは、Yorub'aの挨拶を正確に英語に翻訳するのに苦労している。
さらに,既存のNMTモデルをIkiniYorub'aのトレーニング分割に微調整することで,Yorub'a- Englishモデルを訓練した。
- 参考スコア(独自算出の注目度): 14.469047518226708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the performance of massively multilingual neural
machine translation (NMT) systems in translating Yor\`ub\'a greetings
($\varepsilon$ k\'u [MASK]), which are a big part of Yor\`ub\'a language and
culture, into English. To evaluate these models, we present IkiniYor\`ub\'a, a
Yor\`ub\'a-English translation dataset containing some Yor\`ub\'a greetings,
and sample use cases. We analysed the performance of different multilingual NMT
systems including Google and NLLB and show that these models struggle to
accurately translate Yor\`ub\'a greetings into English. In addition, we trained
a Yor\`ub\'a-English model by finetuning an existing NMT model on the training
split of IkiniYor\`ub\'a and this achieved better performance when compared to
the pre-trained multilingual NMT models, although they were trained on a large
volume of data.
- Abstract(参考訳): 本稿では,Yor\`ub\'a 言語と文化の重要な部分である Yor\`ub\'a 挨拶 (\varepsilon$ k\'u [MASK]) を英語に翻訳する際の多言語ニューラルマシン翻訳 (NMT) システムの性能について検討する。
これらのモデルを評価するために、IkiniYor\`ub\'a, Yor\`ub\'a- English translation data with some Yor\`ub\'a greetings, and sample use caseを示す。
Google や NLLB などの多言語 NMT システムの性能を分析し,これらのモデルがYor\ub\'a の挨拶を正確に英語に翻訳するのに苦労していることを示す。
さらに、既存のnmtモデルをikiniyor\`ub\'aのトレーニング分割に微調整することで、yor\`ub\'a- englishモデルをトレーニングし、大量のデータでトレーニングしたにもかかわらず、事前訓練された多言語nmtモデルと比較して優れた性能を得た。
関連論文リスト
- SPRING Lab IITM's submission to Low Resource Indic Language Translation Shared Task [10.268444449457956]
我々は,Khasi,Mizo,Manipuri,Assameseの4つの低リソースIndic言語に対して,ロバストな翻訳モデルを構築した。
このアプローチには、データ収集と前処理からトレーニングと評価まで、包括的なパイプラインが含まれています。
バイリンガルデータの不足に対処するために,ミゾとカシのモノリンガルデータセットの逆翻訳手法を用いる。
論文 参考訳(メタデータ) (2024-11-01T16:39:03Z) - NusaMT-7B: Machine Translation for Low-Resource Indonesian Languages with Large Language Models [2.186901738997927]
本稿では,低リソースインドネシア語用機械翻訳モデルであるNusaMT-7Bを紹介する。
提案手法は, 単言語データ, Supervised Fine-Tuning (SFT) , 自己学習, LLMベースのデータクリーナーを併用し, 並列文のノイズを低減する。
この結果から,LLMの微調整により,低リソース言語への翻訳品質が向上し,言語保存や異文化間コミュニケーションに寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:33:25Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Better Datastore, Better Translation: Generating Datastores from
Pre-Trained Models for Nearest Neural Machine Translation [48.58899349349702]
Nearest Neighbor Machine Translation (kNNMT)は、トークンレベルの近接した近接検索機構を備えた、ニューラルネットワーク翻訳(NMT)の簡易かつ効果的な方法である。
本稿では,kNN-MTにおけるデータストアの事前学習モデルを活用するフレームワークであるPreDを提案する。
論文 参考訳(メタデータ) (2022-12-17T08:34:20Z) - Language Modeling, Lexical Translation, Reordering: The Training Process
of NMT through the Lens of Classical SMT [64.1841519527504]
ニューラルマシン翻訳は、翻訳プロセス全体をモデル化するために、単一のニューラルネットワークを使用する。
ニューラルネットワーク翻訳はデファクトスタンダードであるにもかかわらず、NMTモデルがトレーニングの過程でどのように異なる能力を獲得するのかは、まだ明らかになっていない。
論文 参考訳(メタデータ) (2021-09-03T09:38:50Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Self-supervised and Supervised Joint Training for Resource-rich Machine
Translation [30.502625878505732]
テキスト表現の自己教師付き事前学習が低リソースニューラルネットワーク翻訳(NMT)に成功している
我々は,NMTモデルを最適化するために,自己教師付き学習と教師付き学習を組み合わせた共同学習手法である$F$-XEnDecを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:35:40Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - JASS: Japanese-specific Sequence to Sequence Pre-training for Neural
Machine Translation [27.364702152624034]
JASSはBMASS(Bunsetsu MASS)とBRSS(Bunsetsu Reordering Sequence to Sequence)の共同トレーニングである。
今回,MASS と JASS の併用による事前学習が,個々の手法をはるかに上回る結果となった。
我々は、研究者が自身のNLPタスクで使うためのリソースとして、コード、事前訓練されたモデル、および文節アノテーション付きデータを公開します。
論文 参考訳(メタデータ) (2020-05-07T09:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。