論文の概要: Multilingual Neural Machine Translation System for Indic to Indic
Languages
- arxiv url: http://arxiv.org/abs/2306.12693v1
- Date: Thu, 22 Jun 2023 06:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:17:25.545667
- Title: Multilingual Neural Machine Translation System for Indic to Indic
Languages
- Title(参考訳): indic to indic languagesのための多言語ニューラルマシン翻訳システム
- Authors: Sudhansu Bala Das, Divyajyoti Panda, Tapas Kumar Mishra, Bidyut Kr.
Patra, Asif Ekbal
- Abstract要約: 本稿では,サマナンタルコーパス上に実装された11個のILに対して,Indic-to-Indic (IL-IL) MNMTベースラインモデルを提案し,Flores-200コーパスで解析した。
また、東インド・アーリア語(EI)、ドラヴィディア語(DR)、西インド・アーリア語(WI)の3つのグループに分類される。
- 参考スコア(独自算出の注目度): 16.99691801245977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper gives an Indic-to-Indic (IL-IL) MNMT baseline model for 11 ILs
implemented on the Samanantar corpus and analyzed on the Flores-200 corpus. All
the models are evaluated using the BLEU score. In addition, the languages are
classified under three groups namely East Indo- Aryan (EI), Dravidian (DR), and
West Indo-Aryan (WI). The effect of language relatedness on MNMT model
efficiency is studied. Owing to the presence of large corpora from English (EN)
to ILs, MNMT IL-IL models using EN as a pivot are also built and examined. To
achieve this, English- Indic (EN-IL) models are also developed, with and
without the usage of related languages. Results reveal that using related
languages is beneficial for the WI group only, while it is detrimental for the
EI group and shows an inconclusive effect on the DR group, but it is useful for
EN-IL models. Thus, related language groups are used to develop pivot MNMT
models. Furthermore, the IL corpora are transliterated from the corresponding
scripts to a modified ITRANS script, and the best MNMT models from the previous
approaches are built on the transliterated corpus. It is observed that the
usage of pivot models greatly improves MNMT baselines with AS-TA achieving the
minimum BLEU score and PA-HI achieving the maximum score. Among languages, AS,
ML, and TA achieve the lowest BLEU score, whereas HI, PA, and GU perform the
best. Transliteration also helps the models with few exceptions. The best
increment of scores is observed in ML, TA, and BN and the worst average
increment is observed in KN, HI, and PA, across all languages. The best model
obtained is the PA-HI language pair trained on PAWI transliterated corpus which
gives 24.29 BLEU.
- Abstract(参考訳): 本稿では,サマナンタルコーパス上に実装された11個のILに対して,Indic-to-Indic (IL-IL) MNMTベースラインモデルを提案する。
全てのモデルはBLEUスコアを用いて評価される。
また、東インド・アーリア語(EI)、ドラヴィディア語(DR)、西インド・アーリア語(WI)の3つのグループに分類される。
言語関連がmnmtモデル効率に及ぼす影響について検討した。
英語 (EN) から IL への大型コーパスの存在から, EN をピボットとした MNMT IL-IL モデルの構築と検討を行った。
これを実現するために、関連言語の使用の有無に関わらず、英語インデックス(EN-IL)モデルも開発されている。
その結果, 関連言語の使用はWI群にのみ有益であり, EI群には有害であり, DR群には不決定性を示すが, EN-ILモデルには有用であることがわかった。
したがって、関連する言語群は、ピボットMNMTモデルの開発に使用される。
さらに、ILコーパスは、対応するスクリプトから修正されたITRANSスクリプトに変換され、以前のアプローチから最高のMNMTモデルが変換コーパス上に構築される。
ピボットモデルを用いた場合,最小BLEUスコアがAS-TA,最大スコアがPA-HIでMNMTベースラインが大幅に向上することが観察された。
AS、ML、TAはBLEUスコアが最も低いが、HI、PA、GUは最高である。
書き起こしは、ほとんど例外なくモデルにも役立ちます。
スコアの最良の増加はML、TA、BNで観測され、最悪の平均増加はKN、HI、PAの各言語で観測される。
最も優れたモデルはPAWI翻訳コーパスで訓練されたPA-HI言語ペアで、24.29BLEUを提供する。
関連論文リスト
- Machine Translation for Ge'ez Language [0.0]
Ge'ezのような低リソース言語の機械翻訳は、語彙外単語、ドメインミスマッチ、ラベル付きトレーニングデータの欠如といった課題に直面している。
言語関連性に基づく多言語ニューラルマシン翻訳(MNMT)モデルを開発した。
また,最新のLCMであるGPT-3.5を用いて,ファジィマッチングを用いた数ショット翻訳実験を行った。
論文 参考訳(メタデータ) (2023-11-24T14:55:23Z) - Robust Domain Adaptation for Pre-trained Multilingual Neural Machine
Translation Models [0.0]
本稿では,組込み凍結と対向損失を組み合わせた汎用mNMTの微調整手法を提案する。
実験では、全ての言語対に対する汎用ドメインの初期性能を最小限に抑えながら、特殊なデータの性能を向上させることを示した。
論文 参考訳(メタデータ) (2022-10-26T18:47:45Z) - Improving Multilingual Neural Machine Translation System for Indic
Languages [0.0]
低リソース言語翻訳に関わる問題に対処する多言語ニューラルマシン翻訳(MNMT)システムを提案する。
提案モデルの実現には最先端のトランスフォーマーアーキテクチャを用いる。
大量のデータに対する試行は、従来のモデルよりもその優位性を明らかにしている。
論文 参考訳(メタデータ) (2022-09-27T09:51:56Z) - Multilingual Neural Machine Translation:Can Linguistic Hierarchies Help? [29.01386302441015]
MNMT(Multilingual Neural Machine Translation)は、複数の言語間の翻訳をサポートする単一のNMTモデルを訓練する。
MNMTモデルの性能は、様々な言語から知識を伝達することで、負の転送によって翻訳性能が低下するので、訓練で使用される言語の種類に大きく依存する。
本稿では,MNMTにおける階層的知識蒸留(HKD)手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T02:31:48Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Crosslingual Embeddings are Essential in UNMT for Distant Languages: An
English to IndoAryan Case Study [28.409618457653135]
言語間埋め込みによるUNMTモデルの埋め込み層の初期化は,既存の手法よりもBLEUスコアが大幅に向上したことを示す。
提案手法は,MASS (Masked Sequence to Sequence) とDAE (Denoising Autoencoder) UNMT (Denoising Autoencoder) UNMT) を用いて実験を行った。
論文 参考訳(メタデータ) (2021-06-09T11:31:27Z) - Understanding by Understanding Not: Modeling Negation in Language Models [81.21351681735973]
否定は自然言語の中核構造である。
本稿では,否定された総称文に基づく不一致目的を用いて,言語モデリング目標の強化を提案する。
否定されたLAMAデータセットの平均top1エラー率を4%に削減します。
論文 参考訳(メタデータ) (2021-05-07T21:58:35Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。