論文の概要: Analyzing Zero-shot Cross-lingual Transfer in Supervised NLP Tasks
- arxiv url: http://arxiv.org/abs/2101.10649v1
- Date: Tue, 26 Jan 2021 09:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 12:21:33.803362
- Title: Analyzing Zero-shot Cross-lingual Transfer in Supervised NLP Tasks
- Title(参考訳): 教師付きNLPタスクにおけるゼロショットクロスリンガル転送の解析
- Authors: Hyunjin Choi, Judong Kim, Seongho Joe, Seungjai Min, Youngjune Gwon
- Abstract要約: ゼロショット言語間転送では、ある言語のコーパスでトレーニングされた教師付きnlpタスクが、追加のトレーニングなしで他の言語に直接適用されます。
最近導入されたクロス言語言語モデル(XLM)プリトレーニングは、トランスフォーマースタイルのネットワークでニューラルパラメータの共有をもたらす。
本稿では,XLM事前学習により生じる仮説上強い言語間移動特性を検証することを目的とする。
- 参考スコア(独自算出の注目度): 6.7155846430379285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In zero-shot cross-lingual transfer, a supervised NLP task trained on a
corpus in one language is directly applicable to another language without any
additional training. A source of cross-lingual transfer can be as
straightforward as lexical overlap between languages (e.g., use of the same
scripts, shared subwords) that naturally forces text embeddings to occupy a
similar representation space. Recently introduced cross-lingual language model
(XLM) pretraining brings out neural parameter sharing in Transformer-style
networks as the most important factor for the transfer. In this paper, we aim
to validate the hypothetically strong cross-lingual transfer properties induced
by XLM pretraining. Particularly, we take XLM-RoBERTa (XLMR) in our experiments
that extend semantic textual similarity (STS), SQuAD and KorQuAD for machine
reading comprehension, sentiment analysis, and alignment of sentence embeddings
under various cross-lingual settings. Our results indicate that the presence of
cross-lingual transfer is most pronounced in STS, sentiment analysis the next,
and MRC the last. That is, the complexity of a downstream task softens the
degree of crosslingual transfer. All of our results are empirically observed
and measured, and we make our code and data publicly available.
- Abstract(参考訳): ゼロショット言語間転送では、ある言語のコーパスでトレーニングされた教師付きnlpタスクが、追加のトレーニングなしで他の言語に直接適用されます。
言語間変換のソースは、自然にテキスト埋め込みに類似の表現空間を占有させる言語間の語彙重複(例えば、同じスクリプト、共有サブワードの使用)と同じくらい単純である。
最近導入されたクロス言語モデル(XLM)プリトレーニングは、トランスフォーマースタイルのネットワークで神経パラメータの共有を転送の最も重要な要因としてもたらします。
本稿では,XLM事前学習により生じる仮説上強い言語間移動特性を検証することを目的とする。
特に,XLM-RoBERTa(XLMR)を用いて,機械読取の理解,感情分析,文章埋め込みのアライメントを多種多様な言語間環境下で行うための意味的テキスト類似性(STS),SQuAD,KorQuADを拡張する実験を行った。
以上の結果から, 言語間移動の存在がSTS, 感情分析が次, MRCが最後であることが示唆された。
つまり、下流のタスクの複雑さは、言語間転送の程度を軟化する。
結果はすべて実証的に観察され、測定され、コードとデータを公開しています。
関連論文リスト
- Probing the Emergence of Cross-lingual Alignment during LLM Training [10.053333786023089]
多言語大言語モデル(LLM)は、ゼロショットの多言語間転送性能を著しく向上させる。
本研究では,LLMの事前学習において,このような言語間アライメントがどのように出現するかを検討する。
ニューロンの重なり合いと下流性能の相関関係を観察する。
論文 参考訳(メタデータ) (2024-06-19T05:31:59Z) - Self-Augmentation Improves Zero-Shot Cross-Lingual Transfer [92.80671770992572]
言語間移動は多言語NLPにおける中心的なタスクである。
このタスクの以前の作業では、並列コーパス、バイリンガル辞書、その他の注釈付きアライメントデータを使用していた。
ゼロショットの言語間移動を改善するため, 単純で効果的なSALT法を提案する。
論文 参考訳(メタデータ) (2023-09-19T19:30:56Z) - Languages You Know Influence Those You Learn: Impact of Language
Characteristics on Multi-Lingual Text-to-Text Transfer [4.554080966463776]
マルチ言語モデル (LM) は低リソース言語での自然言語処理の実現に成功している。
このようなモデル、特にmT5は、言語間の言語的および意味的な知識をどう転送するかをよりよく理解しようとしています。
この研究の鍵となる発見は、構文、形態学、音韻学の類似性が言語間移動のよい予測因子であることである。
論文 参考訳(メタデータ) (2022-12-04T07:22:21Z) - Cross-lingual Transferring of Pre-trained Contextualized Language Models [73.97131976850424]
本稿では,PRLMのための新しい言語間モデル転送フレームワークTreLMを提案する。
シンボルの順序と言語間のシーケンス長の差に対処するため,中間的なTRILayer構造を提案する。
提案手法は,スクラッチから学習した言語モデルに対して,性能と効率の両面で,限られたデータで著しく優れることを示す。
論文 参考訳(メタデータ) (2021-07-27T06:51:13Z) - Syntax-augmented Multilingual BERT for Cross-lingual Transfer [37.99210035238424]
この研究は、言語構文とトレーニングmBERTを明示的に提供することが、言語間転送に役立つことを示している。
実験の結果,mBERTの構文拡張は,一般的なベンチマーク上での言語間移動を改善することがわかった。
論文 参考訳(メタデータ) (2021-06-03T21:12:50Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - From Zero to Hero: On the Limitations of Zero-Shot Cross-Lingual
Transfer with Multilingual Transformers [62.637055980148816]
言語モデリングの目的によって事前訓練された多言語トランスフォーマーは、NLPの事実上のデフォルト転送パラダイムとなっている。
膨大な多言語変換器による言語間変換は,リソースリーンシナリオや遠方言語では著しく効果が低いことを示す。
論文 参考訳(メタデータ) (2020-05-01T22:04:58Z) - Translation Artifacts in Cross-lingual Transfer Learning [51.66536640084888]
機械翻訳は、既存の言語間モデルに顕著な影響を与える微妙なアーティファクトを導入することができることを示す。
自然言語の推論では、前提と仮説を独立に翻訳することで、それらの間の語彙的重複を減らすことができる。
また、XNLIでは、それぞれ4.3点と2.8点の翻訳とゼロショットのアプローチを改善している。
論文 参考訳(メタデータ) (2020-04-09T17:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。