論文の概要: Syntactic Structure Processing in the Brain while Listening
- arxiv url: http://arxiv.org/abs/2302.08589v1
- Date: Thu, 16 Feb 2023 21:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:33:41.097448
- Title: Syntactic Structure Processing in the Brain while Listening
- Title(参考訳): 聴きながらの脳の構文構造処理
- Authors: Subba Reddy Oota, Mounika Marreddy, Manish Gupta and Bapi Raju
Surampud
- Abstract要約: 一般的な構文解析方法は2つある。
最近の研究は、脳の言語ネットワークにおける構文構造がどのように表現されているかを研究するために、脳活動予測のための選択木、インクリメンタルトップダウン解析、その他の単語構文的特徴に基づく構文的埋め込みを用いている。
筆者らは,脳のコード化モデルの予測能力について, (i) 選択性および依存性構文解析に基づく埋め込み法の性能, (ii) 基本構文信号の制御におけるこれらの構文解析に基づく埋め込み法の有効性, (iii) 制御時の各シナティクス埋め込み法の相対的効果の3つの設定で検討した。
- 参考スコア(独自算出の注目度): 3.735055636181383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Syntactic parsing is the task of assigning a syntactic structure to a
sentence. There are two popular syntactic parsing methods: constituency and
dependency parsing. Recent works have used syntactic embeddings based on
constituency trees, incremental top-down parsing, and other word syntactic
features for brain activity prediction given the text stimuli to study how the
syntax structure is represented in the brain's language network. However, the
effectiveness of dependency parse trees or the relative predictive power of the
various syntax parsers across brain areas, especially for the listening task,
is yet unexplored. In this study, we investigate the predictive power of the
brain encoding models in three settings: (i) individual performance of the
constituency and dependency syntactic parsing based embedding methods, (ii)
efficacy of these syntactic parsing based embedding methods when controlling
for basic syntactic signals, (iii) relative effectiveness of each of the
syntactic embedding methods when controlling for the other. Further, we explore
the relative importance of syntactic information (from these syntactic
embedding methods) versus semantic information using BERT embeddings. We find
that constituency parsers help explain activations in the temporal lobe and
middle-frontal gyrus, while dependency parsers better encode syntactic
structure in the angular gyrus and posterior cingulate cortex. Although
semantic signals from BERT are more effective compared to any of the syntactic
features or embedding methods, syntactic embedding methods explain additional
variance for a few brain regions.
- Abstract(参考訳): 構文解析は構文構造を文に割り当てるタスクである。
一般的な構文解析方法は2つある。
最近の研究は、脳の言語ネットワークにおける構文構造がどのように表現されているかを研究するために、脳活動予測のための選択木、インクリメンタルトップダウン解析、その他の単語構文的特徴に基づく構文的埋め込みを用いている。
しかし、依存構文解析木の有効性や、脳領域、特にリスニングタスクにおける様々な構文解析器の相対的予測能力は、まだ解明されていない。
本研究では,脳エンコーディングモデルの3つの設定における予測力について検討する。
一 選挙区及び依存関係構文解析に基づく埋め込み方式の個別性能
(ii)基本構文信号の制御における構文解析に基づく埋め込み手法の有効性
(iii)相互制御時の統語的埋め込み法の相対的有効性
さらに, BERT埋め込みを用いた構文情報と意味情報との相対的重要性について検討する。
また, 側頭葉と中前頭葉の活性化を説明するのに役立ち, 係り受け解析は角回と後帯状皮質のシナティクス構造をよりよくコードすることがわかった。
BERTのセマンティックシグナルは、どの構文的特徴や埋め込み法よりも効果的であるが、構文的埋め込み法は、少数の脳領域で追加的な分散を説明する。
関連論文リスト
- Multipath parsing in the brain [4.605070569473395]
人間は言葉ごとの文章を聴く順番で理解する。
本研究では,音声ブックを聴きながら機能的ニューロイメージングを行う人々の時系列データと,段階的依存からの予測を関連づけることで,これらの構文的あいまいさを人間がどのように処理するかを検討する。
英語と中国語の両方でマルチパス解析の証拠が見つかる。このマルチパス効果に関連する脳領域には、両側上側頭回を含む。
論文 参考訳(メタデータ) (2024-01-31T18:07:12Z) - Information-Restricted Neural Language Models Reveal Different Brain
Regions' Sensitivity to Semantics, Syntax and Context [87.31930367845125]
テキストコーパスを用いて語彙言語モデルGloveと超語彙言語モデルGPT-2を訓練した。
そして、これらの情報制限されたモデルが、自然主義的テキストを聴く人間のfMRI信号の時間軸を予測することができるかを評価した。
分析の結果、言語に関わるほとんどの脳領域は、構文変数と意味変数の両方に敏感であるが、これらの影響の相対的な大きさは、これらの領域で大きく異なることがわかった。
論文 参考訳(メタデータ) (2023-02-28T08:16:18Z) - Combining Improvements for Exploiting Dependency Trees in Neural
Semantic Parsing [1.0437764544103274]
本稿では,トランスフォーマーに基づくセマンティックパーシングシステムにおいて,そのような依存情報を組み込む3つの手法について検討する。
まず、エンコーダの標準自己注意ヘッドを、親スケール自己注意ヘッド(PASCAL)に置き換える。
その後、エンコーダに構成的注意 (CA) を挿入し、入力文の係り受け構造をよりよく把握できる付加的制約を付加する。
論文 参考訳(メタデータ) (2021-12-25T03:41:42Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Syntactic representation learning for neural network based TTS with
syntactic parse tree traversal [49.05471750563229]
本稿では,構文解析木に基づく構文表現学習手法を提案し,構文構造情報を自動的に活用する。
実験の結果,提案手法の有効性が示された。
複数の構文解析木を持つ文では、合成音声から韻律的差異が明確に認識される。
論文 参考訳(メタデータ) (2020-12-13T05:52:07Z) - Cross-lingual Word Sense Disambiguation using mBERT Embeddings with
Syntactic Dependencies [0.0]
言語間の単語感覚の曖昧さ (WSD) は、与えられた文脈にまたがるあいまいな単語の曖昧さに対処する。
BERT埋め込みモデルは、単語の文脈情報に有効であることが証明されている。
このプロジェクトは、構文情報がどのようにBERT埋め込みに追加され、セマンティクスと構文を組み込んだ単語埋め込みの両方をもたらすかを調査します。
論文 参考訳(メタデータ) (2020-12-09T20:22:11Z) - Multilingual Irony Detection with Dependency Syntax and Neural Models [61.32653485523036]
これは構文知識からの貢献に焦点を当て、普遍依存スキームに従って構文が注釈付けされた言語資源を活用する。
その結果, 依存性をベースとした微粒な構文情報は, アイロンの検出に有用であることが示唆された。
論文 参考訳(メタデータ) (2020-11-11T11:22:05Z) - A Comparative Study on Structural and Semantic Properties of Sentence
Embeddings [77.34726150561087]
本稿では,関係抽出に広く利用されている大規模データセットを用いた実験セットを提案する。
異なる埋め込み空間は、構造的および意味的特性に対して異なる強度を持つことを示す。
これらの結果は,埋め込み型関係抽出法の開発に有用な情報を提供する。
論文 参考訳(メタデータ) (2020-09-23T15:45:32Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。