論文の概要: XeroAlign: Zero-Shot Cross-lingual Transformer Alignment
- arxiv url: http://arxiv.org/abs/2105.02472v1
- Date: Thu, 6 May 2021 07:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 23:03:50.260993
- Title: XeroAlign: Zero-Shot Cross-lingual Transformer Alignment
- Title(参考訳): XeroAlign:ゼロショットクロスプラットフォームトランスフォーマーアライメント
- Authors: Milan Gritta, Ignacio Iacobacci
- Abstract要約: XLM-Rなどのクロスリンガルプリトレーニングトランスのタスク固有アライメント法について紹介する。
XeroAlignは翻訳されたタスクデータを使用して、モデルが異なる言語の同様の文埋め込みを生成するよう促します。
XLM-RAのテキスト分類精度はラベル付きデータで訓練されたXLM-Rよりも優れており、言語間対数パラフレーズタスクにおける最先端のモデルと同等である。
- 参考スコア(独自算出の注目度): 9.340611077939828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The introduction of pretrained cross-lingual language models brought decisive
improvements to multilingual NLP tasks. However, the lack of labelled task data
necessitates a variety of methods aiming to close the gap to high-resource
languages. Zero-shot methods in particular, often use translated task data as a
training signal to bridge the performance gap between the source and target
language(s). We introduce XeroAlign, a simple method for task-specific
alignment of cross-lingual pretrained transformers such as XLM-R. XeroAlign
uses translated task data to encourage the model to generate similar sentence
embeddings for different languages. The XeroAligned XLM-R, called XLM-RA, shows
strong improvements over the baseline models to achieve state-of-the-art
zero-shot results on three multilingual natural language understanding tasks.
XLM-RA's text classification accuracy exceeds that of XLM-R trained with
labelled data and performs on par with state-of-the-art models on a
cross-lingual adversarial paraphrasing task.
- Abstract(参考訳): 事前訓練された言語モデルの導入は、多言語NLPタスクに決定的な改善をもたらした。
しかし、ラベル付きタスクデータの欠如は、高リソース言語とのギャップを埋めるための様々な方法を必要とする。
特にゼロショット法では、ソースとターゲット言語間のパフォーマンスギャップを埋める訓練信号として、翻訳されたタスクデータを使うことが多い。
XeroAlignは、XLM-Rのような言語間事前訓練されたトランスフォーマーのタスク固有のアライメントの簡単な方法である。
xeroaligned xlm-rはxlm-raと呼ばれ、3つの多言語自然言語理解タスクで最先端のゼロショット結果を達成するためのベースラインモデルよりも強力な改善を示している。
XLM-RAのテキスト分類精度はラベル付きデータで訓練されたXLM-Rよりも優れており、言語間対数パラフレーズタスクにおける最先端モデルと同等である。
関連論文リスト
- Zero-shot Cross-lingual Transfer without Parallel Corpus [6.937772043639308]
本稿では,事前学習モデルを用いてゼロショット言語間移動を行う手法を提案する。
タスク関連のバイリンガル情報アライメントを適用するバイリンガルタスクフィッティングモジュールで構成されている。
自己学習モジュールは、ラベルのないデータに対して擬似ソフトおよびハードラベルを生成し、それを利用して自己学習を行う。
論文 参考訳(メタデータ) (2023-10-07T07:54:22Z) - Self-Augmentation Improves Zero-Shot Cross-Lingual Transfer [92.80671770992572]
言語間移動は多言語NLPにおける中心的なタスクである。
このタスクの以前の作業では、並列コーパス、バイリンガル辞書、その他の注釈付きアライメントデータを使用していた。
ゼロショットの言語間移動を改善するため, 単純で効果的なSALT法を提案する。
論文 参考訳(メタデータ) (2023-09-19T19:30:56Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - Bilingual Alignment Pre-training for Zero-shot Cross-lingual Transfer [33.680292990007366]
本稿では,埋め込みの整合性を向上し,ゼロショットの言語間転送性能を向上させることを目的とする。
本稿では,従来の知識として統計アライメント情報を用いて,バイリンガル単語予測を導出するアライメント言語モデル(Alignment Language Model, AlignLM)を提案する。
その結果、AlignLMはMLQAおよびXNLIデータセット上でゼロショット性能を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-06-03T10:18:43Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。