論文の概要: Center-Embedding and Constituency in the Brain and a New
Characterization of Context-Free Languages
- arxiv url: http://arxiv.org/abs/2206.13217v1
- Date: Mon, 27 Jun 2022 12:11:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-06-28 21:19:55.417121
- Title: Center-Embedding and Constituency in the Brain and a New
Characterization of Context-Free Languages
- Title(参考訳): 脳の中枢内包と構成と文脈自由言語の新たな特徴付け
- Authors: Daniel Mitropolsky, Adiba Ejaz, Mirah Shi, Mihalis Yannakakis,
Christos H. Papadimitriou
- Abstract要約: 本研究は,神経細胞とシナプスによって,その領域と文の処理が実現可能であることを示す。
驚いたことに、センタ埋め込みポイントの実装方法は、文脈自由言語の新たな特徴である。
- 参考スコア(独自算出の注目度): 2.8932261919131017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A computational system implemented exclusively through the spiking of neurons
was recently shown capable of syntax, that is, of carrying out the dependency
parsing of simple English sentences. We address two of the most important
questions left open by that work: constituency (the identification of key parts
of the sentence such as the verb phrase) and the processing of dependent
sentences, especially center-embedded ones. We show that these two aspects of
language can also be implemented by neurons and synapses in a way that is
compatible with what is known, or widely believed, about the structure and
function of the language organ. Surprisingly, the way we implement center
embedding points to a new characterization of context-free languages.
- Abstract(参考訳): ニューロンのスパイキングによってのみ実装された計算システムは、最近、単純な英語文の係り受け解析を実行するという構文の能力を示した。
我々は,その作業で残された2つの重要な質問に対処する: 選挙区(動詞句などの文のキー部分の識別)と,従属文,特に中心埋め込み文の処理である。
これら2つの言語側面は、言語器官の構造と機能に関する既知の、あるいは広く信じられているものと互換性のある方法で、ニューロンやシナプスによっても実装可能であることを示す。
驚いたことに、センタ埋め込みポイントの実装方法は、文脈自由言語の新たな特徴である。
関連論文リスト
- Revisiting Modality Invariance in a Multilingual Speech-Text Model via Neuron-Level Analysis [15.638379666159127]
言語とモダリティの情報を符号化した場所、選択的ニューロンがデコードにどのように影響するか、そしてこの影響がネットワーク全体にどの程度集中しているかについて検討する。
我々は,平均精度ランキングを用いて言語選択性ニューロンとモダリティ選択性ニューロンを同定し,その機能的役割を推定時に中心的置換介入を用いて検討し,言語とモダリティ間のアクティベーション・マグニチュードの不平等を解析した。
論文 参考訳(メタデータ) (2026-01-24T09:22:18Z) - CRANE: Causal Relevance Analysis of Language-Specific Neurons in Multilingual Large Language Models [0.021485350418225243]
言語能力がニューロンレベルでどのように組織されるかは、いまだに理解されていない。
機能的必要度の観点から言語特異性を再定義する関連性に基づく分析フレームワークであるCRANEを提案する。
論文 参考訳(メタデータ) (2026-01-08T07:21:13Z) - Merge-based syntax is mediated by distinct neurocognitive mechanisms: A clustering analysis of comprehension abilities in 84,000 individuals with language deficits across nine languages [0.8437187555622164]
マージ(Merge)は、単一の進化段階において出現した、基本的な、不可分な操作である。
神経認知の観点からは、マージによって構築された異なる精神的な物体は異なるメカニズムによって支えられる。
Mergeベースの構文はまだ進化の時代に突然現れたかもしれないが、様々な認知メカニズムはMergeベースの様々な種類のオブジェクトの処理を下書きしているようだ。
論文 参考訳(メタデータ) (2025-08-04T20:33:36Z) - How does Alignment Enhance LLMs' Multilingual Capabilities? A Language Neurons Perspective [64.79894853375478]
本稿では,言語ニューロン(言語特異的ニューロンや言語関連ニューロンを含む)と言語非依存ニューロンを検出する,より微細なニューロン識別アルゴリズムを提案する。
異なる種類のニューロンの分布特性に基づいて、多言語推論のためのLCMの内部過程を4つの部分に分割する。
我々は、異なる種類のニューロンに焦点を合わせ、その前後のモデルを体系的に分析する。
論文 参考訳(メタデータ) (2025-05-27T17:59:52Z) - Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [70.3132264719438]
我々は,タスクや言語間でニューロンの活性化がどのように共有されるかを調べることで,研究ギャップを埋めることを目指している。
我々は、異なる言語にまたがる特定の入力に対する応答に基づいて、ニューロンを4つの異なるカテゴリに分類する。
分析の結果, (i) ニューロン共有のパターンはタスクや例の特徴に大きく影響され, (ii) ニューロン共有は言語類似性に完全には対応しない, (iii) 共有ニューロンは応答の生成において重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - Probing Brain Context-Sensitivity with Masked-Attention Generation [87.31930367845125]
我々は、GPT-2変換器を用いて、一定量の文脈情報をキャプチャする単語埋め込みを生成する。
そして、自然主義的なテキストを聴く人間のfMRI脳活動を予測することができるかどうかを検証した。
論文 参考訳(メタデータ) (2023-05-23T09:36:21Z) - Information-Restricted Neural Language Models Reveal Different Brain
Regions' Sensitivity to Semantics, Syntax and Context [87.31930367845125]
テキストコーパスを用いて語彙言語モデルGloveと超語彙言語モデルGPT-2を訓練した。
そして、これらの情報制限されたモデルが、自然主義的テキストを聴く人間のfMRI信号の時間軸を予測することができるかを評価した。
分析の結果、言語に関わるほとんどの脳領域は、構文変数と意味変数の両方に敏感であるが、これらの影響の相対的な大きさは、これらの領域で大きく異なることがわかった。
論文 参考訳(メタデータ) (2023-02-28T08:16:18Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Sentences as connection paths: A neural language architecture of
sentence structure in the brain [0.0]
論文は、脳内の文構造に関するニューラル言語アーキテクチャを提示する。
言葉は「in-situ」のままであり、常に内容に順応できる。
任意文と新規文(新語)は、単語や文の「神経黒板」で作成することができる。
論文 参考訳(メタデータ) (2022-05-19T13:58:45Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Zero-Shot Generalization using Intrinsically Motivated Compositional
Emergent Protocols [0.0]
本稿では,エージェントが無意味なオブジェクトと対話するだけでなく,ゼロショット設定であるタスクから別のタスクへスキルを伝達できることを示す。
本研究では,エージェントが無意味なオブジェクトと対話できるだけでなく,ゼロショット設定であるタスクから別のタスクへスキルを伝達できることを示す。
論文 参考訳(メタデータ) (2021-05-11T14:20:26Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Compositional Languages Emerge in a Neural Iterated Learning Model [27.495624644227888]
構成性により、自然言語はより単純な組み合わせによって複雑な概念を表現することができる。
本稿では,対話型ニューラルエージェントに適用することで,より構造化された言語の出現を促進する効果的なニューラル・イテレーテッド・ラーニング(NIL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-04T15:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。