論文の概要: Zero-shot Domain Adaptation for Neural Machine Translation with
Retrieved Phrase-level Prompts
- arxiv url: http://arxiv.org/abs/2209.11409v1
- Date: Fri, 23 Sep 2022 04:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 14:00:39.622265
- Title: Zero-shot Domain Adaptation for Neural Machine Translation with
Retrieved Phrase-level Prompts
- Title(参考訳): 検索語句レベルプロンプトを用いたニューラルマシン翻訳のためのゼロショット領域適応
- Authors: Zewei Sun, Qingnan Jiang, Shujian Huang, Jun Cao, Shanbo Cheng,
Mingxuan Wang
- Abstract要約: 本稿では、プロンプトベースの手法でドメイン適応を解消する非チューニングパラダイムを提案する。
バイリンガルなフレーズレベルのデータベースを構築し、関連するペアを入力文のプロンプトとして検索する。
実験により,本手法は6.2BLEUスコアのドメイン固有機械翻訳を改善し,11.5%の精度で翻訳制約を改善した。
- 参考スコア(独自算出の注目度): 44.49856167097202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation is an important challenge for neural machine translation.
However, the traditional fine-tuning solution requires multiple extra training
and yields a high cost. In this paper, we propose a non-tuning paradigm,
resolving domain adaptation with a prompt-based method. Specifically, we
construct a bilingual phrase-level database and retrieve relevant pairs from it
as a prompt for the input sentences. By utilizing Retrieved Phrase-level
Prompts (RePP), we effectively boost the translation quality. Experiments show
that our method improves domain-specific machine translation for 6.2 BLEU
scores and improves translation constraints for 11.5% accuracy without
additional training.
- Abstract(参考訳): ドメイン適応はニューラルマシン翻訳の重要な課題である。
しかし、従来の微調整ソリューションでは、複数の追加トレーニングが必要で、高いコストがかかる。
本稿では,プロンプトに基づく手法でドメイン適応を解消する非チューニングパラダイムを提案する。
具体的には,バイリンガルのフレーズレベルデータベースを構築し,それに関連するペアを入力文のプロンプトとして検索する。
Retrieved Phrase-level Prompts (RePP) を用いて翻訳品質を効果的に向上させる。
実験の結果,6.2 bleuスコアのドメイン固有機械翻訳が改善され,11.5%の精度で翻訳制約が向上した。
関連論文リスト
- Non-Parametric Domain Adaptation for End-to-End Speech Translation [72.37869362559212]
E2E-ST(End-to-End Speech Translation)は、エラー伝播の低減、レイテンシの低減、パラメータの削減などにより注目されている。
本稿では,E2E-STシステムのドメイン適応を実現するために,ドメイン固有のテキスト翻訳コーパスを活用する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T11:41:02Z) - Understanding and Improving Sequence-to-Sequence Pretraining for Neural
Machine Translation [48.50842995206353]
本研究は,Seq2Seqプレトレーニングと従来のエンコーダによるNMTの事前トレーニングとの主な違いである,共同事前学習デコーダの影響について検討する。
我々は、ドメインと目的の相違を緩和するために、ドメイン内の事前訓練と入力適応という、シンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2022-03-16T07:36:28Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Phrase-level Active Learning for Neural Machine Translation [107.28450614074002]
ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-06-21T19:20:42Z) - Rapid Domain Adaptation for Machine Translation with Monolingual Data [31.70276147485463]
機械翻訳の課題の1つは、新型コロナウイルス(COVID-19)のような急激なイベントに直面して、目に見えない領域に迅速に適応する方法だ。
本稿では、教師なし翻訳の観点から、素早いドメイン適応を可能にするアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-23T20:31:37Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。