論文の概要: A Closer Look at Linguistic Knowledge in Masked Language Models: The
Case of Relative Clauses in American English
- arxiv url: http://arxiv.org/abs/2011.00960v1
- Date: Mon, 2 Nov 2020 13:25:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:56:57.335419
- Title: A Closer Look at Linguistic Knowledge in Masked Language Models: The
Case of Relative Clauses in American English
- Title(参考訳): マスケッド言語モデルにおける言語知識の概観:アメリカ英語における相対的クロースの場合
- Authors: Marius Mosbach, Stefania Degaetano-Ortlieb, Marie-Pauline Krielke,
Badr M. Abdullah, Dietrich Klakow
- Abstract要約: トランスフォーマーに基づく言語モデルは、様々なタスクにおいて高いパフォーマンスを達成するが、それらが学習し、依存する言語知識の理解はいまだに不足している。
文レベルの探索, 診断事例, マスク付き予測タスクにより, 文法的および意味的知識をテストする3つのモデル(BERT, RoBERTa, ALBERT)を評価した。
- 参考スコア(独自算出の注目度): 17.993417004424078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based language models achieve high performance on various tasks,
but we still lack understanding of the kind of linguistic knowledge they learn
and rely on. We evaluate three models (BERT, RoBERTa, and ALBERT), testing
their grammatical and semantic knowledge by sentence-level probing, diagnostic
cases, and masked prediction tasks. We focus on relative clauses (in American
English) as a complex phenomenon needing contextual information and antecedent
identification to be resolved. Based on a naturalistic dataset, probing shows
that all three models indeed capture linguistic knowledge about grammaticality,
achieving high performance. Evaluation on diagnostic cases and masked
prediction tasks considering fine-grained linguistic knowledge, however, shows
pronounced model-specific weaknesses especially on semantic knowledge, strongly
impacting models' performance. Our results highlight the importance of (a)model
comparison in evaluation task and (b) building up claims of model performance
and the linguistic knowledge they capture beyond purely probing-based
evaluations.
- Abstract(参考訳): トランスフォーマティブベースの言語モデルは、さまざまなタスクで高いパフォーマンスを達成していますが、学習し、依存する言語知識の理解が不足しています。
我々は,3つのモデル (BERT, RoBERTa, ALBERT) を評価し,その文法的および意味的知識を文レベル探索, 診断事例, マスク付き予測タスクによって検証した。
我々は,文脈情報と先行的な識別を必要とする複雑な現象として,相対節(アメリカ英語)に注目した。
自然主義的なデータセットに基づいて、すべての3つのモデルが文法に関する言語的知識を実際に捉え、高い性能を達成することを示す。
しかし, 詳細な言語知識を考慮に入れた診断事例と予測課題の評価は, モデル固有の弱点を顕著に示し, モデルの性能に強い影響を与えている。
私たちの結果は重要性を強調します
(a)評価課題におけるモデル比較及び
b) モデル性能の主張とそれらが獲得する言語知識を純粋に探索に基づく評価を超えて構築する。
関連論文リスト
- Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - DesCo: Learning Object Recognition with Rich Language Descriptions [93.8177229428617]
視覚言語アプローチの最近の発展は、言語指導から視覚認識モデルを学習するパラダイムシフトを引き起こしている。
本稿では,リッチ言語記述を用いたオブジェクト認識モデル学習のための記述条件付き(DesCo)パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-24T21:05:02Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - ProsAudit, a prosodic benchmark for self-supervised speech models [14.198508548718676]
ProsAuditは、自己教師付き学習(SSL)音声モデルにおける構造的韻律的知識を評価するためのベンチマークである。
2つのサブタスク、対応するメトリクス、評価データセットで構成される。
論文 参考訳(メタデータ) (2023-02-23T14:30:23Z) - Knowledge Graph Fusion for Language Model Fine-tuning [0.0]
BERTの微調整段階における知識導入のメリットについて検討する。
既存のK-BERTモデルは、知識グラフから三つ子で文を豊かにするものであり、英語に適応している。
K-BERTに変更された英語は、他の単語ベースの言語にも拡張されている。
論文 参考訳(メタデータ) (2022-06-21T08:06:22Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Curriculum: A Broad-Coverage Benchmark for Linguistic Phenomena in
Natural Language Understanding [1.827510863075184]
Curriculumは広範囲言語現象の評価のためのNLIベンチマークの新しいフォーマットである。
この言語フェノメナ駆動型ベンチマークは、モデル行動の診断とモデル学習品質の検証に有効なツールであることを示す。
論文 参考訳(メタデータ) (2022-04-13T10:32:03Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - The Rediscovery Hypothesis: Language Models Need to Meet Linguistics [8.293055016429863]
現代言語モデルの性能向上に言語知識が必須条件であるかどうかを検討する。
その結果, 言語構造を探索した場合, かなり圧縮されるが, 事前学習目的によく適合する言語モデルは, 良好なスコアを保っていることがわかった。
この結果は再発見仮説を支持し,本論文の第2の貢献である言語モデル目標と言語情報との関連性に関する情報論的枠組みを導出する。
論文 参考訳(メタデータ) (2021-03-02T15:57:39Z) - Labeling Explicit Discourse Relations using Pre-trained Language Models [0.0]
最先端のモデルは手作りの機能を使ってFスコアの45%をわずかに上回っている。
事前訓練された言語モデルは、微調整された場合、言語的特徴を置き換えるのに十分強力であることがわかった。
言語的な特徴を使わずに、モデルが知識集約型モデルより優れているのは、これが初めてである。
論文 参考訳(メタデータ) (2020-06-21T17:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。