論文の概要: Improving both domain robustness and domain adaptability in machine
translation
- arxiv url: http://arxiv.org/abs/2112.08288v1
- Date: Wed, 15 Dec 2021 17:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-12-16 14:46:11.769612
- Title: Improving both domain robustness and domain adaptability in machine
translation
- Title(参考訳): 機械翻訳におけるドメインロバスト性とドメイン適応性の改善
- Authors: Wen Lai, Jind\v{r}ich Libovick\'y, Alexander Fraser
- Abstract要約: ニューラルネットワーク翻訳におけるドメイン適応の2つの問題に対処する。
まず、トレーニングデータからドメインの堅牢性、すなわち両方のドメインの品質に到達したいと考えています。
第二に、システムに適応性を持たせること、つまり、数百のドメイン内並列文でシステムを微調整できるようにすることが望まれます。
- 参考スコア(独自算出の注目度): 69.15496930090403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address two problems of domain adaptation in neural machine translation.
First, we want to reach domain robustness, i.e., good quality of both domains
from the training data, and domains unseen in the training data. Second, we
want our systems to be adaptive, i.e., making it possible to finetune systems
with just hundreds of in-domain parallel sentences. In this paper, we introduce
a novel combination of two previous approaches, word adaptive modelling, which
addresses domain robustness, and meta-learning, which addresses domain
adaptability, and we present empirical results showing that our new combination
improves both of these properties.
- Abstract(参考訳): ニューラルマシン翻訳における領域適応の2つの問題に対処する。
まず、トレーニングデータから両方のドメインの品質を向上し、トレーニングデータに見つからないドメインに到達したいと考えています。
第2に、数百のドメイン内並列文でシステムを微調整できるように、システムを適応させたいと考えています。
本稿では,ドメインの堅牢性に対処する単語適応型モデリングと,ドメイン適応性に対処するメタラーニングという,従来の2つのアプローチの新たな組み合わせを紹介する。
関連論文リスト
- M2D2: A Massively Multi-domain Language Modeling Dataset [76.13062203588089]
ドメイン適応(LM)を研究するための細粒度多ドメインコーパスM2D2を提案する。
ウィキペディアとArXivから派生したカテゴリを用いて、各データソース内のドメインを22のグループに分類する。
我々は、LMをドメイン階層に沿って適用することの利点を示し、より少量のドメイン固有のデータに適応することで、ドメイン内のパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2022-10-13T21:34:52Z) - Domain Adaptation from Scratch [24.612696638386623]
我々は、NLPを機密ドメインに拡張するために欠かせない、新しい学習セットである「スクラッチからのドメイン適応」を提示する。
この設定では、トレーニングされたモデルがセンシティブなターゲットドメイン上でうまく動作するように、ソースドメインの集合からのデータを効率的にアノテートすることを目的としている。
本研究は、データ選択やドメイン適応アルゴリズムからアクティブな学習パラダイムまで、この挑戦的な設定に対するいくつかのアプローチを比較した。
論文 参考訳(メタデータ) (2022-09-02T05:55:09Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Domain Adaptation and Multi-Domain Adaptation for Neural Machine
Translation: A Survey [9.645196221785694]
ニューラルマシン翻訳(nmt)モデルのドメイン適応に対するロバストなアプローチに注目した。
特に、システムが複数のドメインから文を翻訳する必要がある場合を検討します。
我々はNMT研究の他の分野に対するドメイン適応とマルチドメイン適応技術の利点を強調した。
論文 参考訳(メタデータ) (2021-04-14T16:21:37Z) - Domain2Vec: Domain Embedding for Unsupervised Domain Adaptation [56.94873619509414]
従来の教師なしドメイン適応は、限られた数のドメイン間の知識伝達を研究する。
本稿では,特徴不整合とグラム行列の連成学習に基づいて,視覚領域のベクトル表現を提供する新しいDomain2Vecモデルを提案する。
我々の埋め込みは、異なるドメイン間の視覚的関係に関する直感と一致するドメイン類似性を予測できることを示した。
論文 参考訳(メタデータ) (2020-07-17T22:05:09Z) - Sequential Domain Adaptation through Elastic Weight Consolidation for
Sentiment Analysis [3.1473798197405944]
我々はSDA(Sequential Domain Adaptation)というモデルに依存しないフレームワークを提案する。
提案手法は,CNNのようなシンプルなアーキテクチャが,感情分析(SA)の領域適応において,複雑な最先端モデルより優れていることを示す。
さらに、ソースドメインのより難しい第1次反計算機的順序付けの有効性が最大性能に繋がることを示した。
論文 参考訳(メタデータ) (2020-07-02T15:21:56Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。