論文の概要: Neural Machine Translation for Low-Resource Languages: A Survey
- arxiv url: http://arxiv.org/abs/2106.15115v1
- Date: Tue, 29 Jun 2021 06:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:46:01.508972
- Title: Neural Machine Translation for Low-Resource Languages: A Survey
- Title(参考訳): 低リソース言語のためのニューラルマシン翻訳:調査
- Authors: Surangika Ranathunga, En-Shiun Annie Lee, Marjana Prifti Skenduli,
Ravi Shekhar, Mehreen Alam and Rishemjit Kaur
- Abstract要約: 本稿では,低リソース言語NMT(LRL-NMT)における研究の進展に関する詳細な調査を行う。
所定のLRLデータ設定に対して可能なNMTテクニックを選択するためのガイドラインを提供する。
また、LRL-NMTの研究努力をさらに強化するためのレコメンデーションのリストも提供している。
- 参考スコア(独自算出の注目度): 2.3394850341375615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Machine Translation (NMT) has seen a tremendous spurt of growth in
less than ten years, and has already entered a mature phase. While considered
as the most widely used solution for Machine Translation, its performance on
low-resource language pairs still remains sub-optimal compared to the
high-resource counterparts, due to the unavailability of large parallel
corpora. Therefore, the implementation of NMT techniques for low-resource
language pairs has been receiving the spotlight in the recent NMT research
arena, thus leading to a substantial amount of research reported on this topic.
This paper presents a detailed survey of research advancements in low-resource
language NMT (LRL-NMT), along with a quantitative analysis aimed at identifying
the most popular solutions. Based on our findings from reviewing previous work,
this survey paper provides a set of guidelines to select the possible NMT
technique for a given LRL data setting. It also presents a holistic view of the
LRL-NMT research landscape and provides a list of recommendations to further
enhance the research efforts on LRL-NMT.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)は10年足らずで急速に成長し、すでに成熟した段階に入った。
機械翻訳の最も広く使われているソリューションと考えられているが、大規模な並列コーパスが利用できないため、低リソースの言語ペアの性能は、高リソースのコーパスに比べてまだサブ最適である。
そのため、最近のNMT研究領域では、低リソース言語対に対するNMT技術の実装が注目されているため、この話題について報告された膨大な研究結果が得られている。
本稿では,低リソース言語NMT(LRL-NMT)における研究の進歩と,最もポピュラーなソリューションを特定するための定量的分析について述べる。
本研究は,先行研究から得られた知見に基づいて,所定のLRLデータ設定のためのNMT手法を選択するための一連のガイドラインを提供する。
また、LRL-NMT研究の全体像を概観し、LRL-NMT研究のさらなる強化に向けた勧告のリストを提供する。
関連論文リスト
- Quality or Quantity? On Data Scale and Diversity in Adapting Large Language Models for Low-Resource Translation [62.202893186343935]
低リソース言語に大規模言語モデルを適用するのに何が必要かについて検討する。
我々は、事前トレーニングとスーパーバイザードファインチューニング(SFT)の間に並列データが重要であることを示す。
2つの低リソース言語群にまたがる3つの LLM 実験により,本研究の一般化可能性を示す一貫した傾向が示された。
論文 参考訳(メタデータ) (2024-08-23T00:59:38Z) - Importance-Aware Data Augmentation for Document-Level Neural Machine
Translation [51.74178767827934]
ドキュメントレベルのニューラルマシン翻訳(DocNMT)は、一貫性と結合性の両方を持つ翻訳を生成することを目的としている。
長い入力長とトレーニングデータの可用性が限られているため、DocNMTはデータスパシティーの課題に直面していることが多い。
本稿では,隠れ状態のノルムとトレーニング勾配から推定したトークン重要度情報に基づいてトレーニングデータを拡張するDocNMTのための新しいIADAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-27T09:27:47Z) - An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution [5.691028372215281]
Unsupervised Neural Machine Translation (UNMT) は、人間の翻訳された並列データがないと仮定して、NMTの結果を改善することに焦点を当てている。
私たちは、フランス語、グジャラーティ、カザフ語という3つの非常に多様な言語に焦点を合わせ、バイリンガルなNMTモデルを英語から英語に訓練し、様々なレベルの監督を行っている。
論文 参考訳(メタデータ) (2023-12-19T20:35:08Z) - Efficient Methods for Natural Language Processing: A Survey [76.34572727185896]
本研究は, 効率的なNLPにおける現在の手法と知見を合成し, 関連づけるものである。
我々は,限られた資源下でNLPを実施するためのガイダンスと,より効率的な手法を開発するための有望な研究方向性の両立を目指す。
論文 参考訳(メタデータ) (2022-08-31T20:32:35Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [56.5556523013924]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z) - A Survey on Low-Resource Neural Machine Translation [106.51056217748388]
我々は、関連する作品を、使用した補助データに基づいて3つのカテゴリに分類する。
私たちの調査は、研究者がこの分野をよりよく理解し、より良いアルゴリズムを設計するきっかけになることを期待しています。
論文 参考訳(メタデータ) (2021-07-09T06:26:38Z) - Dual Past and Future for Neural Machine Translation [51.418245676894465]
我々は、ソース・ツー・ターゲットとターゲット・ツー・ソースのNMTモデルの両方を利用して、過去・未来のモジュールに対してより直接的かつ正確な監視信号を提供する新しいデュアル・フレームワークを提案する。
実験の結果,提案手法はNMT予測の精度を大幅に向上し,従来の手法を2つのよく研究された翻訳タスクで上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-15T14:52:24Z) - Low Resource Neural Machine Translation: A Benchmark for Five African
Languages [14.97774471012222]
英語と5つのアフリカのLRLペア(Swahili, Amharic, Tigrigna, Oromo, Somali)のNMTをベンチマークする。
ベースライン単一言語対 NMT モデルと半教師付き学習,移動学習,多言語モデリングを比較した。
平均的なBLEUスコアでは、多言語的アプローチは10の翻訳方向のうち6つで最大5点までの最大利得を示す。
論文 参考訳(メタデータ) (2020-03-31T17:50:07Z) - A Comprehensive Survey of Multilingual Neural Machine Translation [22.96845346423759]
我々は多言語ニューラルマシン翻訳(MNMT)について調査する。
MNMTは、機械翻訳の研究のために、エンドツーエンドのモデリングと分散表現が新しい道を開くため、統計機械翻訳よりも有望である。
まず、その中心となるユースケースに基づいて様々なアプローチを分類し、さらにリソースシナリオ、基礎となるモデリング原則、コアイシュー、課題に基づいてそれらを分類します。
論文 参考訳(メタデータ) (2020-01-04T19:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。