論文の概要: COMET-QE and Active Learning for Low-Resource Machine Translation
- arxiv url: http://arxiv.org/abs/2210.15696v1
- Date: Thu, 27 Oct 2022 18:00:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:57:31.101835
- Title: COMET-QE and Active Learning for Low-Resource Machine Translation
- Title(参考訳): 低リソース機械翻訳のためのCOMET-QEとアクティブラーニング
- Authors: Everlyn Asiko Chimoto and Bruce A. Bassett
- Abstract要約: COMET-QEは,RTTL (Round Trip Translation Likelihood) とランダム文選択の2つの変種よりも有意に優れていた。
これはCOMET-QEが低リソース限界における文選択の強力なツールであることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning aims to deliver maximum benefit when resources are scarce. We
use COMET-QE, a reference-free evaluation metric, to select sentences for
low-resource neural machine translation. Using Swahili, Kinyarwanda and Spanish
for our experiments, we show that COMET-QE significantly outperforms two
variants of Round Trip Translation Likelihood (RTTL) and random sentence
selection by up to 5 BLEU points for 20k sentences selected by Active Learning
on a 30k baseline. This suggests that COMET-QE is a powerful tool for sentence
selection in the very low-resource limit.
- Abstract(参考訳): アクティブラーニングは、リソースが不足している場合に最大限の利益をもたらすことを目的としている。
低リソースニューラルネットワーク翻訳のための文の選択には,参照不要評価指標であるCOMET-QEを用いる。
スワヒリ、キニアルワンダ、スペイン語を実験に用いて、30kのベースラインでアクティブラーニングによって選択された20万文に対して、rttl(ラウンドトリップ変換度)とランダム文選択の2つの変種を有意に上回っていることを示した。
これはCOMET-QEが低リソース限界における文選択の強力なツールであることを示唆している。
関連論文リスト
- Don't Rank, Combine! Combining Machine Translation Hypotheses Using
Quality Estimation [0.8267311047244881]
この研究は品質推定基準(QE)を利用したQE融合(QE-fusion)を導入し、人間の判断とよりよく相関し、改良された翻訳を合成する。
提案手法は,半数以上の事例において新規な翻訳を生成できることを示す。
論文 参考訳(メタデータ) (2024-01-12T16:52:41Z) - Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages [51.301942056881146]
アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
論文 参考訳(メタデータ) (2023-12-26T18:38:54Z) - Investigating Multi-Pivot Ensembling with Massively Multilingual Machine
Translation Models [53.84948040596055]
複数の言語をピボットする方法を再検討する。
我々は最も確実な予測に偏りのある組合せ戦略であるMaxEnsを提案する。
我々は、FLORESベンチマークで20の低リソース言語方向の異なる戦略を評価する。
論文 参考訳(メタデータ) (2023-11-13T16:15:20Z) - Strategies for improving low resource speech to text translation relying
on pre-trained ASR models [59.90106959717875]
本稿では,テキスト翻訳(ST)における低音源音声の性能向上のための技術と知見について述べる。
本研究は,英語とポルトガル語,タマシェク語とフランス語の2つの言語対について,シミュレーションおよび実低資源設定について実験を行った。
論文 参考訳(メタデータ) (2023-05-31T21:58:07Z) - The Importance of Context in Very Low Resource Language Modeling [3.734153902687548]
非常に低いリソースシナリオでは、統計的なn-gram言語モデルは最先端のニューラルモデルより優れている。
低リソース環境におけるニューラルモデルの性能向上のための3つの手法を提案する。
論文 参考訳(メタデータ) (2022-05-10T11:19:56Z) - AmericasNLI: Evaluating Zero-shot Natural Language Understanding of
Pretrained Multilingual Models in Truly Low-resource Languages [75.08199398141744]
我々は、XNLI(Conneau et al)の拡張である AmericasNLI を提示する。
は、アメリカ大陸の10の原住民の言語である。
XLM-Rで実験を行い、複数のゼロショットおよび翻訳ベースのアプローチをテストします。
XLM-Rのゼロショット性能は全10言語で低調であり、平均性能は38.62%である。
論文 参考訳(メタデータ) (2021-04-18T05:32:28Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Low Resource Neural Machine Translation: A Benchmark for Five African
Languages [14.97774471012222]
英語と5つのアフリカのLRLペア(Swahili, Amharic, Tigrigna, Oromo, Somali)のNMTをベンチマークする。
ベースライン単一言語対 NMT モデルと半教師付き学習,移動学習,多言語モデリングを比較した。
平均的なBLEUスコアでは、多言語的アプローチは10の翻訳方向のうち6つで最大5点までの最大利得を示す。
論文 参考訳(メタデータ) (2020-03-31T17:50:07Z) - Improving Candidate Generation for Low-resource Cross-lingual Entity
Linking [81.41804263432684]
XEL(クロスランガル・エンティティ・リンク)は、ソース言語テキストから抽出された参照をターゲット言語知識ベース(KB)で検索するタスクである。
本稿では,(1)エンティティ参照とKBエントリの切断を減らすこと,(2)低リソースシナリオへのモデルの堅牢性を改善すること,の3つの改良を提案する。
論文 参考訳(メタデータ) (2020-03-03T05:32:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。