論文の概要: Vocabulary Adaptation for Distant Domain Adaptation in Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2004.14821v2
- Date: Sat, 31 Oct 2020 09:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:24:23.502967
- Title: Vocabulary Adaptation for Distant Domain Adaptation in Neural Machine
Translation
- Title(参考訳): ニューラルネットワーク翻訳における遠隔領域適応のための語彙適応
- Authors: Shoetsu Sato, Jin Sakuma, Naoki Yoshinaga, Masashi Toyoda, Masaru
Kitsuregawa
- Abstract要約: 語彙のミスマッチにより、ドメイン間のドメイン適応を効果的に行うことはできない。
本稿では,効果的な微調整法である語彙適応法を提案する。
本手法は,En-JaおよびDe-En翻訳における従来の微調整性能を3.86点,3.28点改善する。
- 参考スコア(独自算出の注目度): 14.390932594872233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network methods exhibit strong performance only in a few resource-rich
domains. Practitioners, therefore, employ domain adaptation from resource-rich
domains that are, in most cases, distant from the target domain. Domain
adaptation between distant domains (e.g., movie subtitles and research papers),
however, cannot be performed effectively due to mismatches in vocabulary; it
will encounter many domain-specific words (e.g., "angstrom") and words whose
meanings shift across domains(e.g., "conductor"). In this study, aiming to
solve these vocabulary mismatches in domain adaptation for neural machine
translation (NMT), we propose vocabulary adaptation, a simple method for
effective fine-tuning that adapts embedding layers in a given pre-trained NMT
model to the target domain. Prior to fine-tuning, our method replaces the
embedding layers of the NMT model by projecting general word embeddings induced
from monolingual data in a target domain onto a source-domain embedding space.
Experimental results indicate that our method improves the performance of
conventional fine-tuning by 3.86 and 3.28 BLEU points in En-Ja and De-En
translation, respectively.
- Abstract(参考訳): ニューラルネットワークメソッドは、少数のリソース豊富なドメインでのみ強力なパフォーマンスを示す。
したがって、実践者は、ほとんどの場合、ターゲットドメインから離れたリソース豊富なドメインからのドメイン適応を採用する。
しかし、遠隔領域間のドメイン適応(例えば、映画サブタイトルや研究論文)は語彙のミスマッチのために効果的に実行することはできない。
本研究では、ニューラルネットワーク翻訳(NMT)のドメイン適応におけるこれらの語彙ミスマッチを解決するために、与えられたトレーニング済みNMTモデルへの埋め込み層を対象ドメインに適応させる効果的な微調整法である語彙適応を提案する。
微調整に先立って,本手法では,対象領域の単言語データから誘導される一般単語埋め込みをソースドメイン埋め込み空間に投影することにより,NMTモデルの埋め込み層を置き換える。
実験結果から,提案手法は従来法に比べて3.86点,3.28点の微調整性能が向上することが示唆された。
関連論文リスト
- Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - SwitchPrompt: Learning Domain-Specific Gated Soft Prompts for
Classification in Low-Resource Domains [14.096170976149521]
SwitchPromptは、汎用ドメインからさまざまな低リソースドメインへのデータセットでトレーニングされた言語モデルを適応するための、新しくて軽量なプロンプト手法である。
筆者らは,SwitchPromptを用いた場合の一般領域事前学習言語モデルの有効性を3つのテキスト分類ベンチマークで検証した。
彼らはしばしば、ベースライン・オブ・ザ・アーツ・プロンプト法で訓練されたドメイン固有の手法を最大10.7%の精度で上回っている。
論文 参考訳(メタデータ) (2023-02-14T07:14:08Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Neural Supervised Domain Adaptation by Augmenting Pre-trained Models
with Random Units [14.183224769428843]
自然言語処理(NLP)におけるニューラルトランスファーラーニング(TL)の展開
本稿では,その効率性にも拘わらず,主な限界に悩まされている解釈手法について述べる。
本稿では,正規化,重み付け,ランダムに初期化を施した事前学習モデルの強化について提案する。
論文 参考訳(メタデータ) (2021-06-09T09:29:11Z) - Domain Adaptation and Multi-Domain Adaptation for Neural Machine
Translation: A Survey [9.645196221785694]
ニューラルマシン翻訳(nmt)モデルのドメイン適応に対するロバストなアプローチに注目した。
特に、システムが複数のドメインから文を翻訳する必要がある場合を検討します。
我々はNMT研究の他の分野に対するドメイン適応とマルチドメイン適応技術の利点を強調した。
論文 参考訳(メタデータ) (2021-04-14T16:21:37Z) - CMT in TREC-COVID Round 2: Mitigating the Generalization Gaps from Web
to Special Domain Search [89.48123965553098]
本稿では,特殊領域適応問題を緩和する探索システムを提案する。
このシステムは、ドメイン適応型事前学習と数発の学習技術を利用して、ニューラルネットワークがドメインの不一致を軽減するのに役立つ。
本システムでは,TREC-COVID タスクの第2ラウンドにおいて,非マニュアル実行において最善を尽くす。
論文 参考訳(メタデータ) (2020-11-03T09:10:48Z) - Iterative Domain-Repaired Back-Translation [50.32925322697343]
本稿では,ドメイン内並列コーパスが少ない,あるいは存在しない,低リソースのドメイン固有翻訳に焦点を当てる。
本稿では,合成バイリンガルデータの翻訳を洗練するためのドメイン・リペアモデルを提案する。
提案手法の有効性を示すため,NMTモデルを特定の領域と一般領域から特定の領域に適応させる実験を行った。
論文 参考訳(メタデータ) (2020-10-06T04:38:09Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。