論文の概要: Using Multiple Subwords to Improve English-Esperanto Automated Literary
Translation Quality
- arxiv url: http://arxiv.org/abs/2011.14190v1
- Date: Sat, 28 Nov 2020 18:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:29:14.691142
- Title: Using Multiple Subwords to Improve English-Esperanto Automated Literary
Translation Quality
- Title(参考訳): 複数単語を用いた英語エスペラント自動翻訳の品質向上
- Authors: Alberto Poncelas, Jan Buts, James Hadley, Andy Way
- Abstract要約: 我々は同じパラレル文を複数回使用し、単語の分割の仕方を変えることを提案する。
追加の貢献として、文学領域で英語とエスペラントの並行したデータのセットを利用可能にしました。
- 参考スコア(独自算出の注目度): 6.700433100198164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building Machine Translation (MT) systems for low-resource languages remains
challenging. For many language pairs, parallel data are not widely available,
and in such cases MT models do not achieve results comparable to those seen
with high-resource languages.
When data are scarce, it is of paramount importance to make optimal use of
the limited material available. To that end, in this paper we propose employing
the same parallel sentences multiple times, only changing the way the words are
split each time. For this purpose we use several Byte Pair Encoding models,
with various merge operations used in their configuration.
In our experiments, we use this technique to expand the available data and
improve an MT system involving a low-resource language pair, namely
English-Esperanto.
As an additional contribution, we made available a set of English-Esperanto
parallel data in the literary domain.
- Abstract(参考訳): 低リソース言語のための機械翻訳(MT)システムの構築は依然として困難である。
多くの言語ペアでは、並列データが広く利用できないため、MTモデルは高リソース言語で見られる結果に匹敵する結果が得られない。
データが不足している場合、限られた材料を最適に利用することが最重要となる。
そこで本稿では,同じパラレル文を複数回使用し,単語の分割の仕方を変えることを提案する。
この目的では、複数のバイトペアのエンコーディングモデルを使用し、さまざまなマージ操作を構成に使用します。
実験では、この手法を用いて利用可能なデータを拡張し、低リソースの言語対である英語-エスペラントを含むMTシステムを改善する。
追加の貢献として,文芸領域における英esperanto並列データのセットを利用可能とした。
関連論文リスト
- Romanization-based Large-scale Adaptation of Multilingual Language
Models [124.57923286144515]
大規模多言語事前学習言語モデル (mPLMs) は,NLPにおける多言語間移動のデファクトステートとなっている。
我々は、mPLMをローマン化および非ロマン化した14の低リソース言語コーパスに適用するためのデータとパラメータ効率の戦略を多数検討し、比較した。
以上の結果から, UROMAN をベースとしたトランスリテラルは,多くの言語で高い性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:58:34Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Language Agnostic Multilingual Information Retrieval with Contrastive
Learning [59.26316111760971]
本稿では,多言語情報検索システムの学習方法を提案する。
並列コーパスと非並列コーパスを利用して、事前訓練された多言語言語モデルを改善する。
我々のモデルは少数のパラレル文でもうまく機能する。
論文 参考訳(メタデータ) (2022-10-12T23:53:50Z) - Improving Multilingual Neural Machine Translation System for Indic
Languages [0.0]
低リソース言語翻訳に関わる問題に対処する多言語ニューラルマシン翻訳(MNMT)システムを提案する。
提案モデルの実現には最先端のトランスフォーマーアーキテクチャを用いる。
大量のデータに対する試行は、従来のモデルよりもその優位性を明らかにしている。
論文 参考訳(メタデータ) (2022-09-27T09:51:56Z) - Exploiting Parallel Corpora to Improve Multilingual Embedding based
Document and Sentence Alignment [1.5293427903448025]
本稿では,文書・文アライメントにおける多言語文表現の性能向上のために,小型並列コーパスを用いた重み付け機構を提案する。
新たに作成されたSinhala- English,Tamil- English,Sinhala-Tamilのデータセットの結果から,この新たな重み付け機構は文書のアライメントと文のアライメントを大幅に改善することが示された。
論文 参考訳(メタデータ) (2021-06-12T13:00:10Z) - AUGVIC: Exploiting BiText Vicinity for Low-Resource NMT [9.797319790710711]
AUGVICは低リソースNMTのための新しいデータ拡張フレームワークである。
余分なモノリンガルデータを明示的に使用せずに、与えられたbitextのヴィジナルサンプルを利用する。
AUGVICは、従来のバックトランスレーションにおいて、関連ドメインと遠隔ドメインのモノリンガルデータの相違を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:29:18Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Improving Multilingual Neural Machine Translation For Low-Resource
Languages: French-, English- Vietnamese [4.103253352106816]
本稿では,多言語mtシステムにおける希少な単語問題に対処するための2つの単純な戦略を提案する。
両言語対のバイリンガルベースラインシステムに対して,+1.62と+2.54のBLEU点が大幅に改善された。
論文 参考訳(メタデータ) (2020-12-16T04:43:43Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - Bootstrapping a Crosslingual Semantic Parser [74.99223099702157]
我々は、英語のような単一の言語で訓練された意味を、最小限のアノテーションで新しい言語や複数のドメインに適用する。
我々は、機械翻訳がトレーニングデータの適切な代用であるかどうかを問うとともに、英語、パラフレーズ、多言語事前学習モデルとの併用トレーニングを用いて、ブートストラップを調査するように拡張する。
論文 参考訳(メタデータ) (2020-04-06T12:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。