論文の概要: Probing for Constituency Structure in Neural Language Models
- arxiv url: http://arxiv.org/abs/2204.06201v1
- Date: Wed, 13 Apr 2022 07:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 21:43:04.670674
- Title: Probing for Constituency Structure in Neural Language Models
- Title(参考訳): ニューラルランゲージモデルにおける構成構成の探索
- Authors: David Arps, Younes Samih, Laura Kallmeyer, Hassan Sajjad
- Abstract要約: 我々は、Penn Treebank (PTB)で表される構成構造に焦点をあてる。
4つの事前訓練されたトランスフォーマーLMが,我々の探索作業において高い性能を得ることがわかった。
完全な選挙区木をLM表現から線形に分離できることを示す。
- 参考スコア(独自算出の注目度): 11.359403179089817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate to which extent contextual neural language
models (LMs) implicitly learn syntactic structure. More concretely, we focus on
constituent structure as represented in the Penn Treebank (PTB). Using standard
probing techniques based on diagnostic classifiers, we assess the accuracy of
representing constituents of different categories within the neuron activations
of a LM such as RoBERTa. In order to make sure that our probe focuses on
syntactic knowledge and not on implicit semantic generalizations, we also
experiment on a PTB version that is obtained by randomly replacing constituents
with each other while keeping syntactic structure, i.e., a semantically
ill-formed but syntactically well-formed version of the PTB. We find that 4
pretrained transfomer LMs obtain high performance on our probing tasks even on
manipulated data, suggesting that semantic and syntactic knowledge in their
representations can be separated and that constituency information is in fact
learned by the LM. Moreover, we show that a complete constituency tree can be
linearly separated from LM representations.
- Abstract(参考訳): 本稿では,文脈的言語モデル(lms)が暗黙的に構文構造を学習するかを検討する。
具体的には,Penn Treebank (PTB) に代表される構成構造に着目した。
診断分類器に基づく標準検定手法を用いて,RoBERTaなどのLMのニューロン活性化における異なるカテゴリの構成成分の表現精度を評価する。
また,提案手法が,暗黙的な意味論的一般化ではなく,統語論的知識に焦点をあてることを確実にするために,構文構造を維持しながら構成成分をランダムに置換して得られるptb版,すなわち,意味的に不定形だが統語的によく形成されたptb版についても実験を行った。
我々は4つの事前学習されたトランスフォマーlmsが操作されたデータにおいても探索作業において高い性能を得られることを見出し、それらの表現における意味的および構文的知識を分離でき、構成情報は実際にlmによって学習されていることを示唆する。
さらに,完全な選挙区木をLM表現から線形に分離できることを示す。
関連論文リスト
- Analysis of Argument Structure Constructions in a Deep Recurrent Language Model [0.0]
本稿では,再帰型ニューラルネットワークモデルにおけるArgument Structure Constructions(ASC)の表現と処理について検討する。
その結果, 文表現は, 全層にまたがる4つのASCに対応する異なるクラスタを形成することがわかった。
これは、脳に拘束された比較的単純なリカレントニューラルネットワークでさえ、様々な構成タイプを効果的に区別できることを示している。
論文 参考訳(メタデータ) (2024-08-06T09:27:41Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Synonym Detection Using Syntactic Dependency And Neural Embeddings [3.0770051635103974]
ベクトル空間モデルを用いた分布意味論の導出における構文依存の役割について検討する。
本研究は,ニューラルネットワークへの人間のコンパイルした意味知識の注入が分散分布の類似性に及ぼす影響について検討する。
この結果から,構文的条件付きコンテキストは,非条件付きコンテキストよりも語彙的意味論の解釈が優れていることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T03:16:41Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - LSTMs Compose (and Learn) Bottom-Up [18.34617849764921]
NLPにおける最近の研究は、LSTM言語モデルが言語データの階層構造を捉えていることを示している。
既存の研究とは対照的に,その構成行動に繋がるテキスト学習のプロセスを考える。
本稿では,LSTMにおける単語の意味間の分解的相互依存性を,ゲート間の相互作用に基づいて測定する。
論文 参考訳(メタデータ) (2020-10-06T13:00:32Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - Learning Music Helps You Read: Using Transfer to Study Linguistic
Structure in Language Models [27.91397366776451]
遅延構造(MIDI音楽またはJavaコード)上でのLSTMのトレーニングは、自然言語でのテストパフォーマンスを改善する。
語彙重なりに制御される自然言語間の移動実験により,試験言語におけるゼロショット性能は,訓練言語とタイプ的類似性に強く相関していることが示された。
論文 参考訳(メタデータ) (2020-04-30T06:24:03Z) - Word Interdependence Exposes How LSTMs Compose Representations [18.34617849764921]
NLPにおける最近の研究は、LSTM言語モデルが言語データの構成構造を捉えていることを示している。
LSTMにおける単語の意味間の相互依存度を,内部ゲートでの相互作用に基づく新しい尺度として提示する。
論文 参考訳(メタデータ) (2020-04-27T21:48:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。