論文の概要: Information-Restricted Neural Language Models Reveal Different Brain
Regions' Sensitivity to Semantics, Syntax and Context
- arxiv url: http://arxiv.org/abs/2302.14389v1
- Date: Tue, 28 Feb 2023 08:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:27:55.575472
- Title: Information-Restricted Neural Language Models Reveal Different Brain
Regions' Sensitivity to Semantics, Syntax and Context
- Title(参考訳): 情報制限型ニューラルランゲージモデルによる脳領域のセマンティクス・構文・文脈に対する感受性の解明
- Authors: Alexandre Pasquiou, Yair Lakretz, Bertrand Thirion, Christophe Pallier
- Abstract要約: テキストコーパスを用いて語彙言語モデルGloveと超語彙言語モデルGPT-2を訓練した。
そして、これらの情報制限されたモデルが、自然主義的テキストを聴く人間のfMRI信号の時間軸を予測することができるかを評価した。
分析の結果、言語に関わるほとんどの脳領域は、構文変数と意味変数の両方に敏感であるが、これらの影響の相対的な大きさは、これらの領域で大きく異なることがわかった。
- 参考スコア(独自算出の注目度): 87.31930367845125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental question in neurolinguistics concerns the brain regions
involved in syntactic and semantic processing during speech comprehension, both
at the lexical (word processing) and supra-lexical levels (sentence and
discourse processing). To what extent are these regions separated or
intertwined? To address this question, we trained a lexical language model,
Glove, and a supra-lexical language model, GPT-2, on a text corpus from which
we selectively removed either syntactic or semantic information. We then
assessed to what extent these information-restricted models were able to
predict the time-courses of fMRI signal of humans listening to naturalistic
text. We also manipulated the size of contextual information provided to GPT-2
in order to determine the windows of integration of brain regions involved in
supra-lexical processing. Our analyses show that, while most brain regions
involved in language are sensitive to both syntactic and semantic variables,
the relative magnitudes of these effects vary a lot across these regions.
Furthermore, we found an asymmetry between the left and right hemispheres, with
semantic and syntactic processing being more dissociated in the left hemisphere
than in the right, and the left and right hemispheres showing respectively
greater sensitivity to short and long contexts. The use of
information-restricted NLP models thus shed new light on the spatial
organization of syntactic processing, semantic processing and compositionality.
- Abstract(参考訳): 神経言語学における基本的な問題は、語彙処理(単語処理)と超語彙処理(文文処理と談話処理)の両方において、音声理解における統語的および意味的処理に関わる脳領域に関するものである。
これらの領域はどの程度分離されているか?
そこで我々は,構文情報と意味情報の両方を選択的に除去するテキストコーパスを用いて,語彙言語モデルGloveと超語彙言語モデルGPT-2を訓練した。
そして、これらの情報制限モデルが、自然言語テキストを聴く人間のfmri信号の時間経過を予測できる程度まで評価した。
また,gpt-2に提供された文脈情報のサイズを操作し,超語彙処理に関わる脳領域の統合の窓を判断した。
分析の結果,言語に関わる脳領域の多くは構文変数と意味変数の両方に敏感であるが,これらの効果の相対的大きさは地域によって大きく異なることがわかった。
さらに左半球と右半球の間に非対称性があり,左半球では意味的・構文的処理が右半球よりも解離し,左半球と右半球は短大と長大の文脈に対してそれぞれ高い感度を示した。
情報制限付きnlpモデルを用いることで、構文処理、意味処理、構成性の空間的構成に新たな光を当てた。
関連論文リスト
- Large Language Models as Neurolinguistic Subjects: Identifying Internal Representations for Form and Meaning [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
伝統的な精神言語学的評価は、しばしばLSMの真の言語能力を誤って表現する統計バイアスを反映している。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Unveiling A Core Linguistic Region in Large Language Models [49.860260050718516]
本稿では,脳局在化をプロトタイプとして用いた類似研究を行う。
我々は、言語能力に対応する大規模言語モデルにおいて、中核領域を発見した。
我々は,言語能力の向上が必ずしもモデルの知識レベルの向上に伴わないことを観察する。
論文 参考訳(メタデータ) (2023-10-23T13:31:32Z) - Do self-supervised speech and language models extract similar
representations as human brain? [2.390915090736061]
自己教師付き学習(SSL)によって訓練された音声と言語モデルは、音声と言語知覚の間の脳活動と強い整合性を示す。
我々は2つの代表的なSSLモデルであるWav2Vec2.0とGPT-2の脳波予測性能を評価した。
論文 参考訳(メタデータ) (2023-10-07T01:39:56Z) - Probing Brain Context-Sensitivity with Masked-Attention Generation [87.31930367845125]
我々は、GPT-2変換器を用いて、一定量の文脈情報をキャプチャする単語埋め込みを生成する。
そして、自然主義的なテキストを聴く人間のfMRI脳活動を予測することができるかどうかを検証した。
論文 参考訳(メタデータ) (2023-05-23T09:36:21Z) - Joint processing of linguistic properties in brains and language models [14.997785690790032]
人間の脳と言語モデルによる言語情報の詳細な処理の対応について検討する。
特定の言語特性の除去は脳のアライメントを著しく低下させる。
これらの知見は、脳と言語モデルとの整合における特定の言語情報の役割の明確な証拠である。
論文 参考訳(メタデータ) (2022-12-15T19:13:42Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Does injecting linguistic structure into language models lead to better
alignment with brain recordings? [13.880819301385854]
言語モデルと脳記録との整合性は,構文的あるいは意味論的フォーマリズムからのアノテーションに偏りがある場合と評価する。
提案手法は,脳内の意味の組成について,より標的となる仮説の評価を可能にする。
論文 参考訳(メタデータ) (2021-01-29T14:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。