論文の概要: mBBC: Exploring the Multilingual Maze
- arxiv url: http://arxiv.org/abs/2310.05404v1
- Date: Mon, 9 Oct 2023 04:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 07:40:56.087559
- Title: mBBC: Exploring the Multilingual Maze
- Title(参考訳): mBBC:マルチ言語迷路を探る
- Authors: Sina Bagheri Nezhad, Ameeta Agrawal
- Abstract要約: 我々は,mBERT,XLM-R,GPT-3の3つの顕著な多言語言語モデルの包括的評価を行う。
以上の結果から,資源の可用性がモデル性能において重要な役割を担っていることが明らかとなった。
本研究は,多言語言語モデルのより深い理解に寄与し,言語や言語コンテキストにおける言語の性能と一般化性を高めるために,今後の研究・開発に寄与する。
- 参考スコア(独自算出の注目度): 2.0849578298972835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual language models have gained significant attention in recent
years, enabling the development of applications that cater to diverse
linguistic contexts. In this paper, we present a comprehensive evaluation of
three prominent multilingual language models: mBERT, XLM-R, and GPT-3. Using
the self-supervised task of next token prediction, we assess their performance
across a diverse set of languages, with a focus on understanding the impact of
resource availability, word order, language family, and script type on model
accuracy. Our findings reveal that resource availability plays a crucial role
in model performance, with higher resource levels leading to improved accuracy.
We also identify the complex relationship between resource availability,
language families, and script types, highlighting the need for further
investigation into language-specific characteristics and structural variations.
Additionally, our statistical inference analysis identifies significant
features contributing to model performance, providing insights for model
selection and deployment. Our study contributes to a deeper understanding of
multilingual language models and informs future research and development to
enhance their performance and generalizability across languages and linguistic
contexts.
- Abstract(参考訳): 近年、多言語言語モデルが注目され、多様な言語的文脈に対応するアプリケーションの開発が可能になった。
本稿では,mBERT,XLM-R,GPT-3の3つの著名な多言語言語モデルの包括的評価を行う。
次のトークン予測の自己監督タスクを用いて,リソースの可用性,単語の順序,言語ファミリー,スクリプトタイプがモデル精度に与える影響を理解することを目的とした,多種多様な言語を対象としたパフォーマンス評価を行う。
以上の結果から,資源の可用性がモデル性能において重要な役割を担っていることが明らかとなった。
また、リソースアベイラビリティ、言語ファミリー、スクリプトタイプの間の複雑な関係を識別し、言語固有の特徴と構造的なバリエーションについてさらなる調査の必要性を強調した。
さらに,統計的推論分析により,モデル性能に寄与する重要な特徴を特定し,モデル選択とデプロイメントに関する洞察を提供する。
本研究は、多言語言語モデルの深い理解に寄与し、言語と言語コンテキスト間のパフォーマンスと一般化性を高めるために、今後の研究と開発を知らせる。
関連論文リスト
- What Drives Performance in Multilingual Language Models? [1.7648680700685022]
本研究では,多言語多言語大言語モデル(MLLM)の性能に影響を及ぼす要因について検討した。
SIB-200データセットを用いて、マスキング言語モデル、自己回帰モデル、命令調整LDMを含む6つのMLLMについて検討した。
論文 参考訳(メタデータ) (2024-04-29T23:49:19Z) - The Less the Merrier? Investigating Language Representation in
Multilingual Models [8.632506864465501]
多言語モデルにおける言語表現について検討する。
我々は、コミュニティ中心のモデルが、低リソース言語で同じ家系の言語を区別する上で、より良い性能を発揮することを実験から観察した。
論文 参考訳(メタデータ) (2023-10-20T02:26:34Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Are pre-trained text representations useful for multilingual and
multi-dimensional language proficiency modeling? [6.294759639481189]
本稿では,多次元多言語習熟度分類における事前学習および微調整多言語組込みの役割に関する実験と観察について述べる。
提案手法は,多言語習熟度モデリングに有用であるが,どの特徴も言語習熟度の全次元において一貫した最高の性能を得られていないことを示唆する。
論文 参考訳(メタデータ) (2021-02-25T16:23:52Z) - Linguistic Typology Features from Text: Inferring the Sparse Features of
World Atlas of Language Structures [73.06435180872293]
我々は、バイト埋め込みと畳み込み層に基づく繰り返しニューラルネットワーク予測器を構築する。
様々な言語型の特徴を確実に予測できることを示す。
論文 参考訳(メタデータ) (2020-04-30T21:00:53Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z) - An Empirical Study of Factors Affecting Language-Independent Models [11.976665726887733]
言語に依存しないモデルは、モノリンガルデータを用いて訓練されたモデルに匹敵するか、さらに優れることを示す。
我々は,多くの異なる言語で言語に依存しないモデルを実験し,それらが類型的に類似した言語に適していることを示す。
論文 参考訳(メタデータ) (2019-12-30T22:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。