論文の概要: Benchmarking Azerbaijani Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2207.14473v1
- Date: Fri, 29 Jul 2022 04:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:42:40.147567
- Title: Benchmarking Azerbaijani Neural Machine Translation
- Title(参考訳): ベンチマークアゼルバイジャンのニューラルネットワーク翻訳
- Authors: Chih-Chen Chen, William Chen
- Abstract要約: 我々は,アゼルバイジャン翻訳においてどのセグメンテーション手法が最適かを評価し,テキスト領域間でアゼルバイジャンNMTモデルの性能をベンチマークする。
この結果から,UnigramのセグメンテーションによりNMTの性能が向上し,アゼルバイジャン語翻訳モデルは量よりもデータセットの品質が向上するが,クロスドメインの一般化は依然として課題である。
- 参考スコア(独自算出の注目度): 0.04568777157687959
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Little research has been done on Neural Machine Translation (NMT) for
Azerbaijani. In this paper, we benchmark the performance of Azerbaijani-English
NMT systems on a range of techniques and datasets. We evaluate which
segmentation techniques work best on Azerbaijani translation and benchmark the
performance of Azerbaijani NMT models across several domains of text. Our
results show that while Unigram segmentation improves NMT performance and
Azerbaijani translation models scale better with dataset quality than quantity,
cross-domain generalization remains a challenge
- Abstract(参考訳): アゼルバイジャンのニューラルネットワーク翻訳(NMT)についてはほとんど研究されていない。
本稿では,アゼルバイジャン・イングリッシュnmtシステムの性能を,様々な技術とデータセットで評価する。
我々は,アゼルバイジャン翻訳においてどのセグメンテーション手法が最適かを評価し,テキスト領域間でアゼルバイジャンNMTモデルの性能をベンチマークする。
以上の結果から,ユニグラムセグメンテーションはnmt性能を改善し,アゼルバイジャン語翻訳モデルは量よりもデータセット品質でスケールするが,クロスドメイン一般化は依然として課題である。
関連論文リスト
- Importance-Aware Data Augmentation for Document-Level Neural Machine
Translation [51.74178767827934]
ドキュメントレベルのニューラルマシン翻訳(DocNMT)は、一貫性と結合性の両方を持つ翻訳を生成することを目的としている。
長い入力長とトレーニングデータの可用性が限られているため、DocNMTはデータスパシティーの課題に直面していることが多い。
本稿では,隠れ状態のノルムとトレーニング勾配から推定したトークン重要度情報に基づいてトレーニングデータを拡張するDocNMTのための新しいIADAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-27T09:27:47Z) - An Empirical study of Unsupervised Neural Machine Translation: analyzing
NMT output, model's behavior and sentences' contribution [5.691028372215281]
Unsupervised Neural Machine Translation (UNMT) は、人間の翻訳された並列データがないと仮定して、NMTの結果を改善することに焦点を当てている。
私たちは、フランス語、グジャラーティ、カザフ語という3つの非常に多様な言語に焦点を合わせ、バイリンガルなNMTモデルを英語から英語に訓練し、様々なレベルの監督を行っている。
論文 参考訳(メタデータ) (2023-12-19T20:35:08Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Exploiting Language Relatedness in Machine Translation Through Domain
Adaptation Techniques [3.257358540764261]
文のスケール化類似度スコアを,特に5グラムのKenLM言語モデルに基づく関連言語に適用する手法を提案する。
提案手法は, マルチドメインアプローチでは2 BLEU点, NMTでは3 BLEU点, 反復的バックトランスレーションアプローチでは2 BLEU点の増加に成功している。
論文 参考訳(メタデータ) (2023-03-03T09:07:30Z) - The Effect of Normalization for Bi-directional Amharic-English Neural
Machine Translation [53.907805815477126]
本稿では,比較的大規模なアムハラ語-英語並列文データセットを提案する。
我々は、既存のFacebook M2M100事前学習モデルを微調整することで、双方向のアムハラ語翻訳モデルを構築する。
その結果, 両方向のアンハラ語・英語機械翻訳の性能は, アンハラ語ホモホン文字の正規化により向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-27T07:18:53Z) - DivEMT: Neural Machine Translation Post-Editing Effort Across
Typologically Diverse Languages [5.367993194110256]
DivEMTは、ニューラルネットワーク翻訳(NMT)に関する、タイプ的かつ多様なターゲット言語に対する初めての公開後研究である。
我々は、Google Translateとオープンソースの多言語モデルmBART50の2つの最先端NTTシステムの翻訳生産性への影響を評価する。
論文 参考訳(メタデータ) (2022-05-24T17:22:52Z) - Efficient Cluster-Based k-Nearest-Neighbor Machine Translation [65.69742565855395]
k-Nearest-Neighbor Machine Translation (kNN-MT)は、最近、ニューラルネットワーク翻訳(NMT)におけるドメイン適応のための非パラメトリックソリューションとして提案されている。
論文 参考訳(メタデータ) (2022-04-13T05:46:31Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Alternated Training with Synthetic and Authentic Data for Neural Machine
Translation [49.35605028467887]
ニューラルマシン翻訳(NMT)のための合成および認証データを用いた交互トレーニングを提案する。
従来の研究と比較して,ノイズの多い合成データによってNMTモデルのトレーニングが妨げられるのを防止するためのガイダンスとして,認証データを導入している。
中国語・ドイツ語・英語の翻訳タスクの実験は、我々のアプローチがいくつかの強いベースラインにまたがって性能を向上させることを示している。
論文 参考訳(メタデータ) (2021-06-16T07:13:16Z) - Amharic-Arabic Neural Machine Translation [0.0]
2つのLong Short-Term Memory (LSTM) と Gated Recurrent Units (GRU) ベースのNeural Machine Translation (NMT) モデルを開発した。
クラーン文字コーパスは、既存の単言語アラビア語のテキストと、タンジレ語で利用可能なアムハラ語のテキストコーパスの同値な翻訳を変更することで構成されている。
LSTMとGRUベースのNMTモデルとGoogle翻訳システムを比較し,LSTMベースのOpenNMTはGRUベースのOpenNMTとGoogle翻訳システムより優れていることを示した。
論文 参考訳(メタデータ) (2019-12-26T15:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。