論文の概要: Efficient Machine Translation Domain Adaptation
- arxiv url: http://arxiv.org/abs/2204.12608v1
- Date: Tue, 26 Apr 2022 21:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 00:40:09.672631
- Title: Efficient Machine Translation Domain Adaptation
- Title(参考訳): 効率的な機械翻訳ドメイン適応
- Authors: Pedro Henrique Martins and Zita Marinho and Andr\'e F. T. Martins
- Abstract要約: 機械翻訳モデルは、ドメイン外のテキストを翻訳する際に苦労する。
ドメイン適応メソッドは、すべての新しいドメインでモデル全体または一部を微調整またはトレーニングすることに焦点を当てます。
我々は、類似したコンテキストがこれまで見られていた場合に、検索を行うのを避ける、単純だが効果的なキャッシュ戦略を導入する。
- 参考スコア(独自算出の注目度): 7.747003493657217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine translation models struggle when translating out-of-domain text,
which makes domain adaptation a topic of critical importance. However, most
domain adaptation methods focus on fine-tuning or training the entire or part
of the model on every new domain, which can be costly. On the other hand,
semi-parametric models have been shown to successfully perform domain
adaptation by retrieving examples from an in-domain datastore (Khandelwal et
al., 2021). A drawback of these retrieval-augmented models, however, is that
they tend to be substantially slower. In this paper, we explore several
approaches to speed up nearest neighbor machine translation. We adapt the
methods recently proposed by He et al. (2021) for language modeling, and
introduce a simple but effective caching strategy that avoids performing
retrieval when similar contexts have been seen before. Translation quality and
runtimes for several domains show the effectiveness of the proposed solutions.
- Abstract(参考訳): 機械翻訳モデルは、ドメイン外のテキストを翻訳する際に苦労し、ドメイン適応が重要なトピックとなる。
しかし、ほとんどのドメイン適応メソッドは、モデルの全体または一部を新しいドメインごとに微調整またはトレーニングすることにフォーカスしています。
一方、半パラメトリックモデルは、ドメイン内データストア(khandelwal et al., 2021)から例を取り出すことで、ドメイン適応をうまく行うことが示されている。
しかし、これらの検索強化モデルの欠点は、かなり遅い傾向があることである。
本稿では,近傍の機械翻訳を高速化するいくつかの手法について検討する。
我々は,Heらによって提案された言語モデリング手法(2021年)に適応し,類似した文脈で検索を行うのを避ける,シンプルだが効果的なキャッシング戦略を導入する。
いくつかのドメインの翻訳品質とランタイムは、提案したソリューションの有効性を示している。
関連論文リスト
- Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - Domain Adaptation and Multi-Domain Adaptation for Neural Machine
Translation: A Survey [9.645196221785694]
ニューラルマシン翻訳(nmt)モデルのドメイン適応に対するロバストなアプローチに注目した。
特に、システムが複数のドメインから文を翻訳する必要がある場合を検討します。
我々はNMT研究の他の分野に対するドメイン適応とマルチドメイン適応技術の利点を強調した。
論文 参考訳(メタデータ) (2021-04-14T16:21:37Z) - Pruning-then-Expanding Model for Domain Adaptation of Neural Machine
Translation [9.403585397617865]
ドメイン適応はニューラルネットワーク翻訳の実践的応用に広く用いられている。
既存のドメイン適応法は、通常、破滅的な忘れ、ドメインの分岐、そしてモデル爆発に苦しむ。
本研究では、翻訳モデルにおけるニューロンやパラメータの重要性に基づいた「分割・征服」手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T08:57:09Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Rapid Domain Adaptation for Machine Translation with Monolingual Data [31.70276147485463]
機械翻訳の課題の1つは、新型コロナウイルス(COVID-19)のような急激なイベントに直面して、目に見えない領域に迅速に適応する方法だ。
本稿では、教師なし翻訳の観点から、素早いドメイン適応を可能にするアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-23T20:31:37Z) - Iterative Domain-Repaired Back-Translation [50.32925322697343]
本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
本稿では,合成バイリンガルデータの翻訳を洗練するためのドメイン・リペアモデルを提案する。
提案手法の有効性を示すため,NMTモデルを特定の領域と一般領域から特定の領域に適応させる実験を行った。
論文 参考訳(メタデータ) (2020-10-06T04:38:09Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z) - Learning to adapt class-specific features across domains for semantic
segmentation [36.36210909649728]
本論文では,クラス情報毎に考慮し,ドメイン間の特徴を適応させることを学習する新しいアーキテクチャを提案する。
我々は最近導入されたStarGANアーキテクチャを画像翻訳のバックボーンとして採用している。
論文 参考訳(メタデータ) (2020-01-22T23:51:30Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。