論文の概要: Cross-Linguistic Syntactic Evaluation of Word Prediction Models
- arxiv url: http://arxiv.org/abs/2005.00187v2
- Date: Thu, 21 May 2020 14:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 23:36:57.349352
- Title: Cross-Linguistic Syntactic Evaluation of Word Prediction Models
- Title(参考訳): 単語予測モデルの言語横断的構文評価
- Authors: Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia
Talmina, Tal Linzen
- Abstract要約: 本稿では,ニューラルワード予測モデルの文法学習能力が言語によってどう異なるかを検討する。
CLAMSには、英語、フランス語、ドイツ語、ヘブライ語、ロシア語のサブバーブ協定の課題セットが含まれている。
CLAMSを用いてLSTM言語モデルと単言語および多言語BERTの評価を行う。
- 参考スコア(独自算出の注目度): 25.39896327641704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A range of studies have concluded that neural word prediction models can
distinguish grammatical from ungrammatical sentences with high accuracy.
However, these studies are based primarily on monolingual evidence from
English. To investigate how these models' ability to learn syntax varies by
language, we introduce CLAMS (Cross-Linguistic Assessment of Models on Syntax),
a syntactic evaluation suite for monolingual and multilingual models. CLAMS
includes subject-verb agreement challenge sets for English, French, German,
Hebrew and Russian, generated from grammars we develop. We use CLAMS to
evaluate LSTM language models as well as monolingual and multilingual BERT.
Across languages, monolingual LSTMs achieved high accuracy on dependencies
without attractors, and generally poor accuracy on agreement across object
relative clauses. On other constructions, agreement accuracy was generally
higher in languages with richer morphology. Multilingual models generally
underperformed monolingual models. Multilingual BERT showed high syntactic
accuracy on English, but noticeable deficiencies in other languages.
- Abstract(参考訳): ニューラルワード予測モデルは、非文法文と非文法文を高い精度で区別することができると結論付けている。
しかし、これらの研究は主に英語からの単言語的証拠に基づいている。
これらのモデルの構文学習能力が言語によってどのように変化するかを検討するために,単言語・多言語モデルのための構文評価スイート clams (cross-linguistic assessment of models on syntax) を導入する。
CLAMSには、私たちが開発している文法から生成された英語、フランス語、ドイツ語、ヘブライ語、ロシア語に対する主語合意の課題セットが含まれています。
CLAMSを用いてLSTM言語モデルと単言語および多言語BERTの評価を行う。
言語全体では、モノリンガルLSTMはアトラクタなしで依存物に対して高い精度を達成し、一般にオブジェクト相対節間での合意に関する精度は低い。
他の構成では、よりリッチな形態を持つ言語では、合意の精度が概して高かった。
多言語モデルは一般に単言語モデルに劣る。
多言語BERTは、英語では高い構文精度を示したが、他の言語では顕著な欠陥を示した。
関連論文リスト
- Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Cross-Lingual Consistency of Factual Knowledge in Multilingual Language
Models [2.6626950367610402]
本研究では,多言語PLMにおける事実知識の言語間整合性(CLC)について検討する。
本稿では,言語間の知識一貫性を精度から独立して評価するために,ランク付けに基づく一貫性尺度(RankC)を提案する。
論文 参考訳(メタデータ) (2023-10-16T13:19:17Z) - Causal Analysis of Syntactic Agreement Neurons in Multilingual Language
Models [28.036233760742125]
我々は多言語言語モデル(XGLMと多言語BERT)を様々な言語で因果的に探索する。
自己回帰型多言語言語モデルでは、言語間で大きなニューロンオーバーラップが見られるが、マスキング言語モデルではない。
論文 参考訳(メタデータ) (2022-10-25T20:43:36Z) - Multilingual BERT has an accent: Evaluating English influences on
fluency in multilingual models [23.62852626011989]
我々は,高次情報源言語における文法構造が低次情報源言語に肥大化したことを示す。
このバイアスは、多言語モデルの流布度とモノリンガルのスペイン語とギリシア語のモデルの流布度を比較する新しい方法によって示される。
論文 参考訳(メタデータ) (2022-10-11T17:06:38Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Factual Consistency of Multilingual Pretrained Language Models [0.0]
多言語言語モデルがモノリンガルモデルよりも一貫性があるかどうかを検討する。
mBERT は英語のパラフレーズで BERT と同程度に矛盾している。
mBERT と XLM-R はどちらも、英語では高い一貫性を示しており、他の45の言語ではさらに矛盾している。
論文 参考訳(メタデータ) (2022-03-22T09:15:53Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - How Good is Your Tokenizer? On the Monolingual Performance of
Multilingual Language Models [96.32118305166412]
本研究では,5つの単一言語下流タスクのセットに基づいて,事前学習可能な単言語モデルを持つ9種類の言語について検討した。
多言語モデルの語彙で適切に表現された言語は、単言語モデルよりも性能が著しく低下する。
論文 参考訳(メタデータ) (2020-12-31T14:11:00Z) - Recurrent Neural Network Language Models Always Learn English-Like
Relative Clause Attachment [17.995905582226463]
英語とスペイン語のモデル性能を比較し,RNN LMにおける非言語的バイアスが英語の構文構造と有利に重なることを示す。
英語モデルは人間に似た構文的嗜好を習得しているように見えるが、スペイン語で訓練されたモデルは、同等の人間的な嗜好を取得できない。
論文 参考訳(メタデータ) (2020-05-01T01:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。