論文の概要: The Neural Correlates of Linguistic Structure Building: Comments on
Kazanina & Tavano (2022)
- arxiv url: http://arxiv.org/abs/2212.04219v1
- Date: Thu, 8 Dec 2022 12:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:59:49.425480
- Title: The Neural Correlates of Linguistic Structure Building: Comments on
Kazanina & Tavano (2022)
- Title(参考訳): 言語構造建築の神経関係:カザニナとタヴァノについて(2022年)
- Authors: Nai Ding
- Abstract要約: 2016年のDing、Melloni、Zhang、Tian、Poeppelの研究によると、神経振動は構文構造構築の潜在的な神経相関をもたらす可能性があるという。
KTパースペクティブは思考を誘発するが、DMZTPや他の研究の議論について深刻な誤解がある。
いくつかの誤解と矛盾した議論をKTの観点から要約し、今後の研究についていくつか提案する。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A recent perspective paper by Kazanina & Tavano (referred to as the KT
perspective in the following) argues how neural oscillations cannot provide a
potential neural correlate for syntactic structure building. The view that
neural oscillations can provide a potential neural correlate for syntactic
structure building is largely attributed to a study by Ding, Melloni, Zhang,
Tian, and Poeppel in 2016 (referred to as the DMZTP study).
The KT perspective is thought provoking, but has severe misinterpretations
about the arguments in DMZTP and other studies, and contains contradictory
conclusions in different parts of the perspective, making it impossible to
understand the position of the authors. In the following, I summarize a few
misinterpretations and inconsistent arguments in the KT perspective, and put
forward a few suggestions for future studies.
- Abstract(参考訳): Kazanina & Tavano による最近のパースペクティブペーパー(後述の KT パースペクティブ)では、ニューラル振動がシナティック構造構築に潜在的なニューラル相関を与えることができないことを論じている。
神経振動は、構文構造構築のための潜在的な神経相関を与えることができるという見解は、2016年のDing、Melloni、Zhang、Tian、Poeppelの研究(DMZTP研究)に大きく影響されている。
KTパースペクティブは挑発的であるが、DMZTPや他の研究における議論に関する重大な誤解があり、視点の異なる部分に矛盾する結論を含んでいるため、著者の位置を理解することは不可能である。
以下に、KTの観点から、いくつかの誤解と矛盾した議論を要約し、今後の研究についていくつか提案する。
関連論文リスト
- Understanding Reasoning in Chain-of-Thought from the Hopfieldian View [17.18897746431302]
本稿では,認知神経科学における認知のホップフィールド的視点に基づく新しい視点を紹介する。
我々は, CoT(Chain-of-Thought)推論と, 刺激, 行動, 神経集団, 表現空間といった重要な認知要素の関連性を確立する。
我々は,低次元表現空間のロバスト性を利用して,CoTにおける推論過程のロバスト性を高めるRepresentation-of-Thought(RoT)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-04T16:55:30Z) - Unveiling Narrative Reasoning Limits of Large Language Models with Trope in Movie Synopses [66.7212332602784]
チェーン・オブ・シンクレット(CoT)プロンプトを備えた大規模言語モデルは、多段階の推論能力を示している。
本研究では,映画シナプスのトロープを利用して,最先端LLMの抽象的推論能力を評価する。
本稿では,これらの課題に対処し,F1スコアを11.8ポイント向上するためのトロープワイズクエリ手法を提案する。
論文 参考訳(メタデータ) (2024-09-22T05:50:18Z) - From Frege to chatGPT: Compositionality in language, cognition, and deep neural networks [0.0]
我々は、哲学、認知科学、神経科学の幅広い読者のために、機械学習による最近の経験的研究をレビューする。
特に,我々は,合成一般化機能を備えたニューラルネットワークを実現するための2つのアプローチを強調した。
これらの発見が人間の認知における構成性の研究にもたらす意味について論じる。
論文 参考訳(メタデータ) (2024-05-24T02:36:07Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Beneath Surface Similarity: Large Language Models Make Reasonable
Scientific Analogies after Structure Abduction [46.2032673640788]
人間の認知における類推的推論の不可欠な役割は、共用関係構造を通して親しみやすい概念とリンクすることで、新しい概念を把握できることである。
この研究は、Large Language Models (LLM) がこれらの類似の基盤となる構造をしばしば見落としていることを示唆している。
本稿では,2つのシステム間の類似性を形成する構造を導出するための,認知心理学に基づく類推的構造推論の課題を紹介する。
論文 参考訳(メタデータ) (2023-05-22T03:04:06Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Exploring Discourse Structures for Argument Impact Classification [48.909640432326654]
本稿では、文脈経路に沿った2つの議論間の談話関係が、議論の説得力を特定する上で不可欠な要素であることを実証的に示す。
本研究では,文レベルの構造情報を大規模言語モデルから派生した文脈的特徴に注入・融合するDisCOCを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:49:19Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。