論文の概要: The Impact of Cross-Lingual Adjustment of Contextual Word
Representations on Zero-Shot Transfer
- arxiv url: http://arxiv.org/abs/2204.06457v1
- Date: Wed, 13 Apr 2022 15:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 12:48:37.283038
- Title: The Impact of Cross-Lingual Adjustment of Contextual Word
Representations on Zero-Shot Transfer
- Title(参考訳): 文脈表現の言語間調整がゼロショット転送に与える影響
- Authors: Pavel Efimov and Leonid Boytsov and Elena Arslanova and Pavel
Braslavski
- Abstract要約: mBERTやXLM-Rのような訓練済みの大規模多言語モデルにより、多くのNLPタスクにおいて効果的な言語間ゼロショット転送が可能となった。
これらのモデルの小さな並列コーパスを用いた言語間調整により、さらなる結果の改善が期待できる。
これは、並列データのみを使用して機械翻訳システムや多言語モデルをスクラッチからトレーニングするよりも、よりデータ効率のよい方法である。
- 参考スコア(独自算出の注目度): 3.512274749189597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large pre-trained multilingual models such as mBERT and XLM-R enabled
effective cross-lingual zero-shot transfer in many NLP tasks. A cross-lingual
adjustment of these models using a small parallel corpus can potentially
further improve results. This is a more data efficient method compared to
training a machine-translation system or a multi-lingual model from scratch
using only parallel data. In this study, we experiment with zero-shot transfer
of English models to four typologically different languages (Spanish, Russian,
Vietnamese, and Hindi) and three NLP tasks (QA, NLI, and NER). We carry out a
cross-lingual adjustment of an off-the-shelf mBERT model. We confirm prior
finding that this adjustment makes embeddings of semantically similar words
from different languages closer to each other, while keeping unrelated words
apart. However, from the paired-differences histograms introduced in our work
we can see that the adjustment only modestly affects the relative distances
between related and unrelated words. In contrast, fine-tuning of mBERT on
English data (for a specific task such as NER) draws embeddings of both related
and unrelated words closer to each other. The cross-lingual adjustment of mBERT
improves NLI in four languages and NER in two languages, while QA performance
never improves and sometimes degrades. When we fine-tune a cross-lingual
adjusted mBERT for a specific task (e.g., NLI), the cross-lingual adjustment of
mBERT may still improve the separation between related and related words, but
this works consistently only for the XNLI task. Our study contributes to a
better understanding of cross-lingual transfer capabilities of large
multilingual language models and of effectiveness of their cross-lingual
adjustment in various NLP tasks.
- Abstract(参考訳): mBERTやXLM-Rのような訓練済みの大規模多言語モデルにより、多くのNLPタスクにおいて効果的な言語間ゼロショット転送が可能となった。
これらのモデルの小さな並列コーパスを用いた言語間調整により、さらなる結果の改善が期待できる。
これは、並列データのみを使用して機械翻訳システムや多言語モデルをスクラッチからトレーニングするよりも、よりデータ効率のよい方法である。
本研究では,スペイン語,ロシア語,ベトナム語,ヒンディー語の4つのタイプ別言語と,3つのnlpタスク(qa,nli,ner)への英語モデルのゼロショット転送実験を行った。
既製のmBERTモデルの言語間調整を行う。
この調整によって、異なる言語からの意味論的に類似した単語の埋め込みが互いに近づき、無関係な単語を分離することを確認する。
しかし,本研究で紹介された対差分ヒストグラムから,関係語と非関連語との相対的距離にゆるやかにのみ影響することが明らかとなった。
対照的に、英語データ(NERのような特定のタスク)に対するmBERTの微調整は、関連する単語と無関係な単語の埋め込みを互いに近接させる。
mBERTの言語間調整は4言語でのNLIと2言語でのNERを改善し、QA性能は改善されず、時には劣化する。
特定のタスク(例えばNLI)に対して言語間調整されたmBERTを微調整する場合、mBERTの言語間調整は関連する単語と関連する単語の分離を改善するが、これは一貫してXNLIタスクにのみ作用する。
本研究は,大規模多言語モデルの言語間伝達能力の向上と,NLPタスクにおける言語間調整の有効性の検証に寄与する。
関連論文リスト
- VECO 2.0: Cross-lingual Language Model Pre-training with
Multi-granularity Contrastive Learning [56.47303426167584]
複数粒度アライメントを持つコントラスト学習に基づく言語間事前学習モデルVECO2.0を提案する。
具体的には、シーケンス・ツー・シーケンスアライメントが誘導され、並列対の類似性を最大化し、非並列対を最小化する。
トークン・ツー・トークンのアライメントは、シソーラス辞書を介して発掘された同義トークンと、バイリンガルな例の他の未使用トークンとのギャップを埋めるために統合される。
論文 参考訳(メタデータ) (2023-04-17T12:23:41Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - Cross-lingual Transferring of Pre-trained Contextualized Language Models [73.97131976850424]
本稿では,PRLMのための新しい言語間モデル転送フレームワークTreLMを提案する。
シンボルの順序と言語間のシーケンス長の差に対処するため,中間的なTRILayer構造を提案する。
提案手法は,スクラッチから学習した言語モデルに対して,性能と効率の両面で,限られたデータで著しく優れることを示す。
論文 参考訳(メタデータ) (2021-07-27T06:51:13Z) - Syntax-augmented Multilingual BERT for Cross-lingual Transfer [37.99210035238424]
この研究は、言語構文とトレーニングmBERTを明示的に提供することが、言語間転送に役立つことを示している。
実験の結果,mBERTの構文拡張は,一般的なベンチマーク上での言語間移動を改善することがわかった。
論文 参考訳(メタデータ) (2021-06-03T21:12:50Z) - XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation [93.80733419450225]
本稿では,言語間移動学習の現状を解析する。
XTREMEを10種類の自然言語理解タスクからなるXTREME-Rに拡張する。
論文 参考訳(メタデータ) (2021-04-15T12:26:12Z) - Towards Multi-Sense Cross-Lingual Alignment of Contextual Embeddings [41.148892848434585]
本稿では,バイリンガル辞書からのクロスリンガル信号のみを活用して,文脈埋め込みを感覚レベルで整列する新しい枠組みを提案する。
我々はまず,単語感覚を明示的にモデル化するために,新しい感覚認識型クロスエントロピー損失を提案する。
次に,言語間モデル事前学習のための感覚認識型クロスエントロピー損失と,複数の言語対に対する事前訓練型クロス言語モデルの上に,感覚アライメントの目的を提案する。
論文 参考訳(メタデータ) (2021-03-11T04:55:35Z) - Multilingual Transfer Learning for QA Using Translation as Data
Augmentation [13.434957024596898]
我々は,多言語組込みを意味空間に近づけることで,言語間伝達を改善する戦略を検討する。
言語敵対的トレーニングと言語仲裁フレームワークという2つの新しい戦略を提案し、(ゼロリソースの)クロスリンガルトランスファーのパフォーマンスを大幅に改善します。
実験により,提案モデルは,最近導入された多言語MLQAデータセットとTyDiQAデータセットにおいて,以前のゼロショットベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-10T20:29:34Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - On Learning Universal Representations Across Languages [37.555675157198145]
文レベルの表現を学習するための既存のアプローチを拡張し、言語間理解と生成の有効性を示す。
具体的には,複数の言語に分散した並列文の普遍表現を学習するための階層型コントラスト学習(HiCTL)手法を提案する。
我々は、XTREMEと機械翻訳という2つの難解な言語間タスクについて評価を行う。
論文 参考訳(メタデータ) (2020-07-31T10:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。