論文の概要: Multilingual Domain Adaptation for NMT: Decoupling Language and Domain
Information with Adapters
- arxiv url: http://arxiv.org/abs/2110.09574v1
- Date: Mon, 18 Oct 2021 18:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 04:15:47.540583
- Title: Multilingual Domain Adaptation for NMT: Decoupling Language and Domain
Information with Adapters
- Title(参考訳): NMTのための多言語ドメイン適応:言語とドメイン情報をアダプタで分離する
- Authors: Asa Cooper Stickland, Alexandre B\'erard, Vassilina Nikoulina
- Abstract要約: 機械翻訳の文脈における言語とドメインアダプタの構成性について検討する。
部分的なリソースのシナリオでは、ドメイン固有のアダプタと言語固有のアダプタの組み合わせは、しばしば欠落した言語を破滅的に忘れてしまう。
- 参考スコア(独自算出の注目度): 66.7986513246294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adapter layers are lightweight, learnable units inserted between transformer
layers. Recent work explores using such layers for neural machine translation
(NMT), to adapt pre-trained models to new domains or language pairs, training
only a small set of parameters for each new setting (language pair or domain).
In this work we study the compositionality of language and domain adapters in
the context of Machine Translation. We aim to study, 1) parameter-efficient
adaptation to multiple domains and languages simultaneously (full-resource
scenario) and 2) cross-lingual transfer in domains where parallel data is
unavailable for certain language pairs (partial-resource scenario). We find
that in the partial resource scenario a naive combination of domain-specific
and language-specific adapters often results in `catastrophic forgetting' of
the missing languages. We study other ways to combine the adapters to alleviate
this issue and maximize cross-lingual transfer. With our best adapter
combinations, we obtain improvements of 3-4 BLEU on average for source
languages that do not have in-domain data. For target languages without
in-domain data, we achieve a similar improvement by combining adapters with
back-translation. Supplementary material is available at
https://tinyurl.com/r66stbxj
- Abstract(参考訳): アダプタ層は軽量で学習可能なユニットであり、トランスフォーマー層の間に挿入される。
最近の研究は、ニューラルネットワーク翻訳(NMT)にそのようなレイヤを使用して、トレーニング済みモデルを新しいドメインまたは言語ペアに適応させ、新しい設定(言語ペアまたはドメイン)毎に小さなパラメータセットのみをトレーニングする。
本研究では,機械翻訳の文脈で言語とドメインアダプタの構成性について検討する。
研究を目標としています
1)複数のドメインや言語へのパラメータ効率の同時適応(フルリソースシナリオ)
2) 並列データが特定の言語ペア(部分的リソースシナリオ)で使用できない領域における言語間転送。
部分的なリソースのシナリオでは、ドメイン固有のアダプタと言語固有のアダプタの組み合わせは、しばしば、欠落した言語の‘破滅的な忘れ方’をもたらす。
我々は、この問題を緩和し、言語間移動を最大化するためにアダプタを組み合わせる他の方法を研究する。
最適なアダプタの組み合わせにより、ドメイン内データを持たないソース言語に対して平均3~4BLEUの改善が得られる。
ドメイン内データを持たないターゲット言語の場合、アダプタとバックトランスレーションを組み合わせることで同様の改善を達成します。
追加資料はhttps://tinyurl.com/r66stbxjで入手できる。
関連論文リスト
- The Impact of Language Adapters in Cross-Lingual Transfer for NLU [0.8702432681310401]
2つの多言語モデルと3つの多言語データセットを用いた詳細なアブレーション研究において、ターゲット言語アダプタを含めることの効果について検討する。
本結果から,タスク,言語,モデル間でターゲット言語アダプタの効果は相容れないことが示唆された。
学習後の言語アダプタの除去は、弱い負の効果しか示さず、言語アダプタが予測に強い影響を与えていないことを示している。
論文 参考訳(メタデータ) (2024-01-31T20:07:43Z) - AdapterSoup: Weight Averaging to Improve Generalization of Pretrained
Language Models [127.04370753583261]
事前訓練された言語モデル(PLM)は、大規模なコーパスで訓練されるが、しばしば特定のドメインに特化する必要がある。
解決策は、テスト時に新しいドメインに関連ドメインアダプタを使用することである。
本稿では、異なるドメインでトレーニングされたアダプタの重量空間平均化を行うAdapterSoupを紹介する。
論文 参考訳(メタデータ) (2023-02-14T13:09:23Z) - $m^4Adapter$: Multilingual Multi-Domain Adaptation for Machine
Translation with a Meta-Adapter [128.69723410769586]
多言語ニューラルネットワーク翻訳モデル(MNMT)は、ドメインと言語ペアのデータに基づいて評価すると、最先端の性能が得られる。
ドメインシフトや新しい言語ペアへの変換にMNMTモデルを使用すると、パフォーマンスが劇的に低下する。
我々はメタラーニングとアダプタを用いたドメイン知識と言語知識を組み合わせた$m4Adapter$を提案する。
論文 参考訳(メタデータ) (2022-10-21T12:25:05Z) - Language-Family Adapters for Low-Resource Multilingual Neural Machine
Translation [129.99918589405675]
自己超越で訓練された大規模多言語モデルは、幅広い自然言語処理タスクにおいて最先端の結果を達成する。
マルチリンガルな微調整は低リソース言語のパフォーマンスを向上させるが、モデル全体を変更する必要があるため、極めて高価である。
言語間移動を容易にするため,mBART-50上で言語ファミリーアダプタを訓練する。
論文 参考訳(メタデータ) (2022-09-30T05:02:42Z) - Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual
Retrieval [66.69799641522133]
最先端のニューラルランカーは、お腹が空いていることで悪名高い。
現在のアプローチでは、英語データに基づいて訓練されたローダを、多言語エンコーダを用いて他の言語や言語間設定に転送するのが一般的である。
本研究では,Sparse Fine-Tuning Masks (SFTMs) とAdapters (Adapters) の2つのパラメータ効率のアプローチにより,より軽量で効果的なゼロショット転送が可能となることを示す。
論文 参考訳(メタデータ) (2022-04-05T15:44:27Z) - Efficient Test Time Adapter Ensembling for Low-resource Language
Varieties [115.12997212870962]
多言語事前学習モデルの言語間移動を容易にするために,特殊言語とタスクアダプタが提案されている。
直感的な解法は、新しい言語の種類に関連言語アダプタを使用することであるが、この解が準最適性能をもたらすことを観察する。
本稿では,新しいアダプタを訓練することなく,未知言語への言語アダプタの堅牢性を向上させることを目的とする。
論文 参考訳(メタデータ) (2021-09-10T13:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。