論文の概要: Center-Embedding and Constituency in the Brain and a New
Characterization of Context-Free Languages
- arxiv url: http://arxiv.org/abs/2206.13217v1
- Date: Mon, 27 Jun 2022 12:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 21:19:55.417121
- Title: Center-Embedding and Constituency in the Brain and a New
Characterization of Context-Free Languages
- Title(参考訳): 脳の中枢内包と構成と文脈自由言語の新たな特徴付け
- Authors: Daniel Mitropolsky, Adiba Ejaz, Mirah Shi, Mihalis Yannakakis,
Christos H. Papadimitriou
- Abstract要約: 本研究は,神経細胞とシナプスによって,その領域と文の処理が実現可能であることを示す。
驚いたことに、センタ埋め込みポイントの実装方法は、文脈自由言語の新たな特徴である。
- 参考スコア(独自算出の注目度): 2.8932261919131017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A computational system implemented exclusively through the spiking of neurons
was recently shown capable of syntax, that is, of carrying out the dependency
parsing of simple English sentences. We address two of the most important
questions left open by that work: constituency (the identification of key parts
of the sentence such as the verb phrase) and the processing of dependent
sentences, especially center-embedded ones. We show that these two aspects of
language can also be implemented by neurons and synapses in a way that is
compatible with what is known, or widely believed, about the structure and
function of the language organ. Surprisingly, the way we implement center
embedding points to a new characterization of context-free languages.
- Abstract(参考訳): ニューロンのスパイキングによってのみ実装された計算システムは、最近、単純な英語文の係り受け解析を実行するという構文の能力を示した。
我々は,その作業で残された2つの重要な質問に対処する: 選挙区(動詞句などの文のキー部分の識別)と,従属文,特に中心埋め込み文の処理である。
これら2つの言語側面は、言語器官の構造と機能に関する既知の、あるいは広く信じられているものと互換性のある方法で、ニューロンやシナプスによっても実装可能であることを示す。
驚いたことに、センタ埋め込みポイントの実装方法は、文脈自由言語の新たな特徴である。
関連論文リスト
- Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [70.3132264719438]
我々は,タスクや言語間でニューロンの活性化がどのように共有されるかを調べることで,研究ギャップを埋めることを目指している。
我々は、異なる言語にまたがる特定の入力に対する応答に基づいて、ニューロンを4つの異なるカテゴリに分類する。
分析の結果, (i) ニューロン共有のパターンはタスクや例の特徴に大きく影響され, (ii) ニューロン共有は言語類似性に完全には対応しない, (iii) 共有ニューロンは応答の生成において重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - Probing Brain Context-Sensitivity with Masked-Attention Generation [87.31930367845125]
我々は、GPT-2変換器を用いて、一定量の文脈情報をキャプチャする単語埋め込みを生成する。
そして、自然主義的なテキストを聴く人間のfMRI脳活動を予測することができるかどうかを検証した。
論文 参考訳(メタデータ) (2023-05-23T09:36:21Z) - Information-Restricted Neural Language Models Reveal Different Brain
Regions' Sensitivity to Semantics, Syntax and Context [87.31930367845125]
テキストコーパスを用いて語彙言語モデルGloveと超語彙言語モデルGPT-2を訓練した。
そして、これらの情報制限されたモデルが、自然主義的テキストを聴く人間のfMRI信号の時間軸を予測することができるかを評価した。
分析の結果、言語に関わるほとんどの脳領域は、構文変数と意味変数の両方に敏感であるが、これらの影響の相対的な大きさは、これらの領域で大きく異なることがわかった。
論文 参考訳(メタデータ) (2023-02-28T08:16:18Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Sentences as connection paths: A neural language architecture of
sentence structure in the brain [0.0]
論文は、脳内の文構造に関するニューラル言語アーキテクチャを提示する。
言葉は「in-situ」のままであり、常に内容に順応できる。
任意文と新規文(新語)は、単語や文の「神経黒板」で作成することができる。
論文 参考訳(メタデータ) (2022-05-19T13:58:45Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Zero-Shot Generalization using Intrinsically Motivated Compositional
Emergent Protocols [0.0]
本稿では,エージェントが無意味なオブジェクトと対話するだけでなく,ゼロショット設定であるタスクから別のタスクへスキルを伝達できることを示す。
本研究では,エージェントが無意味なオブジェクトと対話できるだけでなく,ゼロショット設定であるタスクから別のタスクへスキルを伝達できることを示す。
論文 参考訳(メタデータ) (2021-05-11T14:20:26Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Compositional Languages Emerge in a Neural Iterated Learning Model [27.495624644227888]
構成性により、自然言語はより単純な組み合わせによって複雑な概念を表現することができる。
本稿では,対話型ニューラルエージェントに適用することで,より構造化された言語の出現を促進する効果的なニューラル・イテレーテッド・ラーニング(NIL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-04T15:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。