論文の概要: Phrase-level Active Learning for Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2106.11375v1
- Date: Mon, 21 Jun 2021 19:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 15:15:09.874313
- Title: Phrase-level Active Learning for Neural Machine Translation
- Title(参考訳): ニューラルネットワーク翻訳のためのフレーズレベルアクティブラーニング
- Authors: Junjie Hu and Graham Neubig
- Abstract要約: ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
- 参考スコア(独自算出の注目度): 107.28450614074002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural machine translation (NMT) is sensitive to domain shift. In this paper,
we address this problem in an active learning setting where we can spend a
given budget on translating in-domain data, and gradually fine-tune a
pre-trained out-of-domain NMT model on the newly translated data. Existing
active learning methods for NMT usually select sentences based on uncertainty
scores, but these methods require costly translation of full sentences even
when only one or two key phrases within the sentence are informative. To
address this limitation, we re-examine previous work from the phrase-based
machine translation (PBMT) era that selected not full sentences, but rather
individual phrases. However, while incorporating these phrases into PBMT
systems was relatively simple, it is less trivial for NMT systems, which need
to be trained on full sequences to capture larger structural properties of
sentences unique to the new domain. To overcome these hurdles, we propose to
select both full sentences and individual phrases from unlabelled data in the
new domain for routing to human translators. In a German-English translation
task, our active learning approach achieves consistent improvements over
uncertainty-based sentence selection methods, improving up to 1.2 BLEU score
over strong active learning baselines.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)はドメインシフトに敏感である。
本稿では、ドメイン内データの翻訳に所定の予算を費やすことができるアクティブな学習環境でこの問題に対処し、新たに翻訳されたデータに基づいて、事前学習されたドメイン外NMTモデルを徐々に微調整する。
nmtの既存のアクティブ学習方法は、不確実性スコアに基づいて文を選択するのが普通であるが、これらの方法は、文中の1つか2つのキーフレーズだけが有益である場合でも、全文のコストのかかる翻訳を必要とする。
この制限に対処するため,全文ではなく個々の句を選択したPBMT時代から,過去の研究を再検討した。
しかし、これらのフレーズを pbmt システムに組み込むのは比較的簡単であったが、nmt システムでは、新しいドメイン特有の文の構造的性質を捉えるために、完全なシーケンスで訓練する必要がある。
これらのハードルを克服するために、人間の翻訳者へのルーティングのための新しい領域において、未解読データから全文と個々の句を選択することを提案する。
ドイツ語と英語の翻訳タスクでは、アクティブラーニングアプローチは不確実性に基づく文選択法よりも一貫した改善を達成し、強力なアクティブラーニングベースラインよりも1.2 bleuスコアまで改善した。
関連論文リスト
- Simplifying Translations for Children: Iterative Simplification Considering Age of Acquisition with LLMs [19.023628411128406]
本稿では,翻訳における単語をAoA(High Age of Acquisitions)に置き換える手法を提案する。
その結果,提案手法は高AoA語を低AoA語に効果的に置き換えることを示した。
論文 参考訳(メタデータ) (2024-08-08T04:57:36Z) - DICTDIS: Dictionary Constrained Disambiguation for Improved NMT [50.888881348723295]
我々は辞書から派生した複数の候補翻訳の曖昧さを解消する語彙制約付きNMTシステムであるDictDisを提案する。
我々は、規制、金融、工学を含む様々な分野において、英語・ヒンディー語・英語・ドイツ語文に関する広範な実験を通じて、DictDisの有用性を実証する。
論文 参考訳(メタデータ) (2022-10-13T13:04:16Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Exploiting Curriculum Learning in Unsupervised Neural Machine
Translation [28.75229367700697]
複数の粒度から擬似バイテキストを徐々に活用するカリキュラム学習手法を提案する。
WMT 14 En-Fr, WMT 16 En-De, WMT 16 En-Ro, LDC En-Zh 翻訳タスクの実験結果から,提案手法はより高速な収束速度で一貫した改善を実現することが示された。
論文 参考訳(メタデータ) (2021-09-23T07:18:06Z) - Learning Domain Specific Language Models for Automatic Speech
Recognition through Machine Translation [0.0]
我々は、タスク固有のテキストデータの翻訳を最初に取得するために、中間ステップとしてNeural Machine Translationを使用します。
我々はNMTビームサーチグラフから単語混乱ネットワークを導出する手法を開発した。
NMT混在ネットワークは、n-gramと繰り返しニューラルネットワークLMの両方の難易度を低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-21T10:29:20Z) - Sentence Alignment with Parallel Documents Helps Biomedical Machine
Translation [0.5430741734728369]
本研究は、新しい教師なし文アライメント手法を示し、生体医学的ニューラルネットワーク翻訳(NMT)システムの訓練における特徴を探求する。
二言語間単語の類似性を評価するために,二言語間単語埋め込みの構築には単純かつ効果的な手法を用いる。
提案手法は1対1および多対多のケースで高い精度を達成した。
論文 参考訳(メタデータ) (2021-04-17T16:09:30Z) - Unsupervised Bitext Mining and Translation via Self-trained Contextual
Embeddings [51.47607125262885]
不整合テキストから機械翻訳(MT)のための擬似並列コーパスを作成するための教師なし手法について述べる。
我々は多言語BERTを用いて、最寄りの検索のためのソースとターゲット文の埋め込みを作成し、自己学習によりモデルを適応する。
BUCC 2017 bitextマイニングタスクで並列文ペアを抽出し,F1スコアの最大24.5ポイント増加(絶対)を従来の教師なし手法と比較して観察することで,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-10-15T14:04:03Z) - Robust Unsupervised Neural Machine Translation with Adversarial
Denoising Training [66.39561682517741]
unsupervised neural machine translation (UNMT) は機械翻訳コミュニティに大きな関心を集めている。
UNMTの主な利点は、必要な大規模な訓練用テキストの簡単な収集にある。
本稿では,UNMT ベースのシステムのロバスト性を改善するため,まずノイズを考慮に入れた。
論文 参考訳(メタデータ) (2020-02-28T05:17:55Z) - Multilingual Denoising Pre-training for Neural Machine Translation [132.66750663226287]
mBART(mBART)は、大規模モノリンガルコーパスで事前訓練されたシーケンスからシーケンスまでの自動エンコーダである。
mBARTは、完全なシーケンス・ツー・シーケンスモデルを事前訓練する最初の方法の1つである。
論文 参考訳(メタデータ) (2020-01-22T18:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。