論文の概要: Discovering Language-neutral Sub-networks in Multilingual Language
Models
- arxiv url: http://arxiv.org/abs/2205.12672v1
- Date: Wed, 25 May 2022 11:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 01:30:27.518799
- Title: Discovering Language-neutral Sub-networks in Multilingual Language
Models
- Title(参考訳): 多言語モデルにおける言語中立サブネットワークの発見
- Authors: Negar Foroutan, Mohammadreza Banaei, Remi Lebret, Antoine Bosselut,
Karl Aberer
- Abstract要約: 多言語モデルの言語中立性は、これらのモデルの言語エンコードサブネットワーク間の重なり合いの関数である。
mBERTを基礎として、様々な言語やタスクに個別に最適化されたサブネットワークを見つけるために、宝くじの仮説を用いる。
我々は,mBERTは言語ニュートラルなサブネットワークと,複数の補助言語固有のサブネットワークで構成されていると結論付けた。
- 参考スコア(独自算出の注目度): 15.94622051535847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual pre-trained language models perform remarkably well on
cross-lingual transfer for downstream tasks. Despite their impressive
performance, our understanding of their language neutrality (i.e., the extent
to which they use shared representations to encode similar phenomena across
languages) and its role in achieving such performance remain open questions. In
this work, we conceptualize language neutrality of multilingual models as a
function of the overlap between language-encoding sub-networks of these models.
Using mBERT as a foundation, we employ the lottery ticket hypothesis to
discover sub-networks that are individually optimized for various languages and
tasks. Using three distinct tasks and eleven typologically-diverse languages in
our evaluation, we show that the sub-networks found for different languages are
in fact quite similar, supporting the idea that mBERT jointly encodes multiple
languages in shared parameters. We conclude that mBERT is comprised of a
language-neutral sub-network shared among many languages, along with multiple
ancillary language-specific sub-networks, with the former playing a more
prominent role in mBERT's impressive cross-lingual performance.
- Abstract(参考訳): 多言語事前学習言語モデルは、下流タスクの言語間移動において極めてよく機能する。
彼らの印象的なパフォーマンスにもかかわらず、言語中立性(つまり、言語間で同様の現象をエンコードするために共有表現を使用する程度)に対する我々の理解は、そのようなパフォーマンスを達成する上での役割はオープンな疑問のままである。
本研究では,これらのモデルの言語符号化サブネットワーク間の重なり合いの関数として,多言語モデルの言語中立性を概念化する。
mBERTを基礎として、様々な言語やタスクに個別に最適化されたサブネットワークを見つけるために宝くじの仮説を用いる。
評価では,3つの異なるタスクと11の類型的多言語を用いて,異なる言語で見つかったサブネットワークが実際に非常によく似ていることを示し,mBERTが複数の言語を共通パラメータで共同符号化するという考えを支持した。
我々は,mBERTが複数の言語間で共有される言語ニュートラルなサブネットワークと,複数の補助言語固有のサブネットワークで構成されていると結論付けた。
関連論文リスト
- xCoT: Cross-lingual Instruction Tuning for Cross-lingual
Chain-of-Thought Reasoning [36.34986831526529]
CoT(Chain-of-Thought)は、大規模言語モデルにおける推論を誘発する強力なテクニックとして登場した。
本稿では,ハイソース言語から低リソース言語へ知識を伝達するための言語間命令微調整フレームワーク(xCOT)を提案する。
論文 参考訳(メタデータ) (2024-01-13T10:53:53Z) - Establishing Interlingua in Multilingual Language Models [0.0]
異なる言語が大きな多言語言語モデルにおいて共有空間に収束することを示す。
我々は28の多様な言語に分析を拡張し、言語間の空間が言語の言語的関連性に類似した特定の構造を示すことを発見した。
論文 参考訳(メタデータ) (2021-09-02T20:53:14Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - CoSDA-ML: Multi-Lingual Code-Switching Data Augmentation for Zero-Shot
Cross-Lingual NLP [68.2650714613869]
我々は,mBERTを微調整するための多言語コードスイッチングデータを生成するためのデータ拡張フレームワークを提案する。
既存の研究と比較すると,本手法は訓練にバイリンガル文を頼らず,複数の対象言語に対して1つの学習プロセスしか必要としない。
論文 参考訳(メタデータ) (2020-06-11T13:15:59Z) - Finding Universal Grammatical Relations in Multilingual BERT [47.74015366712623]
mBERT表現のサブスペースは、英語以外の言語で構文木の距離を回復することを示す。
我々は,mBERTが構文依存ラベルの表現を学習する証拠を提供する教師なし解析手法を提案する。
論文 参考訳(メタデータ) (2020-05-09T20:46:02Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。