論文の概要: Iterative Domain-Repaired Back-Translation
- arxiv url: http://arxiv.org/abs/2010.02473v1
- Date: Tue, 6 Oct 2020 04:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:38:43.753348
- Title: Iterative Domain-Repaired Back-Translation
- Title(参考訳): 反復的ドメイン逆変換
- Authors: Hao-Ran Wei, Zhirui Zhang, Boxing Chen, Weihua Luo
- Abstract要約: 本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
本稿では,合成バイリンガルデータの翻訳を洗練するためのドメイン・リペアモデルを提案する。
提案手法の有効性を示すため,NMTモデルを特定の領域と一般領域から特定の領域に適応させる実験を行った。
- 参考スコア(独自算出の注目度): 50.32925322697343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on the domain-specific translation with low
resources, where in-domain parallel corpora are scarce or nonexistent. One
common and effective strategy for this case is exploiting in-domain monolingual
data with the back-translation method. However, the synthetic parallel data is
very noisy because they are generated by imperfect out-of-domain systems,
resulting in the poor performance of domain adaptation. To address this issue,
we propose a novel iterative domain-repaired back-translation framework, which
introduces the Domain-Repair (DR) model to refine translations in synthetic
bilingual data. To this end, we construct corresponding data for the DR model
training by round-trip translating the monolingual sentences, and then design
the unified training framework to optimize paired DR and NMT models jointly.
Experiments on adapting NMT models between specific domains and from the
general domain to specific domains demonstrate the effectiveness of our
proposed approach, achieving 15.79 and 4.47 BLEU improvements on average over
unadapted models and back-translation.
- Abstract(参考訳): 本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
この場合の一般的な効果的な戦略は、バックトランスレーション法によるドメイン内のモノリンガルデータの利用である。
しかし、合成並列データはドメイン外システムによって生成され、ドメイン適応の貧弱なパフォーマンスをもたらすため、非常にノイズが多い。
そこで本研究では, 合成バイリンガルデータの翻訳を洗練するために, domain-repair (dr) モデルを導入する反復型ドメインリペアバックトランスレーションフレームワークを提案する。
そこで本研究では,単言語文の往復翻訳によるDRモデルトレーニングに対応するデータを構築し,統合学習フレームワークを設計し,ペア型DRモデルとNMTモデルを協調的に最適化する。
特定のドメインと一般ドメインから特定のドメインにNMTモデルを適応させる実験は,提案手法の有効性を実証し,非適応モデルとバックトランスレーションの平均15.79および4.47BLEUの改善を達成した。
関連論文リスト
- Domain-Specific Text Generation for Machine Translation [7.803471587734353]
ドメイン固有データ拡張のための最先端事前学習言語モデル(LM)を利用したドメイン適応手法を提案する。
我々は、ドメイン内テキストの翻訳を大幅に改善するモデルを訓練するために、混合微調整を用いています。
論文 参考訳(メタデータ) (2022-08-11T16:22:16Z) - Finding the Right Recipe for Low Resource Domain Adaptation in Neural
Machine Translation [7.2283509416724465]
一般的な翻訳モデルは、しばしば専門領域で正確な翻訳を生成するのに苦労する。
ドメイン適応に対するモノリンガルおよび並列データアプローチの詳細な実験を行った。
私たちの研究には、消費者電子、臨床、バイオメディカルの3つの領域が含まれています。
論文 参考訳(メタデータ) (2022-06-02T16:38:33Z) - Non-Parametric Domain Adaptation for End-to-End Speech Translation [72.37869362559212]
E2E-ST(End-to-End Speech Translation)は、エラー伝播の低減、レイテンシの低減、パラメータの削減などにより注目されている。
本稿では,E2E-STシステムのドメイン適応を実現するために,ドメイン固有のテキスト翻訳コーパスを活用する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T11:41:02Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Dynamic Data Selection and Weighting for Iterative Back-Translation [116.14378571769045]
本稿では,反復的バックトランスレーションモデルのためのカリキュラム学習戦略を提案する。
我々は、ドメイン適応、低リソース、高リソースMT設定に関するモデルを評価する。
実験の結果,提案手法は競争基準値よりも最大1.8 BLEU点の改善を達成できた。
論文 参考訳(メタデータ) (2020-04-07T19:49:58Z) - Structured Domain Adaptation with Online Relation Regularization for
Unsupervised Person Re-ID [62.90727103061876]
Unsupervised Domain adapt(UDA)は、ラベル付きソースドメインデータセットでトレーニングされたモデルを、ラベルなしのターゲットドメインデータセットに適応させることを目的としている。
本稿では,オンライン関係整合性正規化項を用いたエンドツーエンドなドメイン適応フレームワークを提案する。
提案手法は,複数のUDAタスクにおける人物再IDの最先端性能を実現することを目的としている。
論文 参考訳(メタデータ) (2020-03-14T14:45:18Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。