論文の概要: Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
- arxiv url: http://arxiv.org/abs/2508.10057v1
- Date: Tue, 12 Aug 2025 21:38:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.05826
- Title: Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
- Title(参考訳): 大規模言語モデルによる抽象的推論における人間の神経認知との相違の兆候
- Authors: Christopher Pinier, Sonia Acuña Vargas, Mariia Steeghs-Turchina, Dora Matzke, Claire E. Stevenson, Michael D. Nunez,
- Abstract要約: 本研究では,大言語モデル(LLM)が抽象的推論中に人間の神経認知を反映するかどうかを検討する。
我々は,抽象パターン補完タスクにおいて,人体の性能と神経表現を8つのオープンソースLCMと比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates whether large language models (LLMs) mirror human neurocognition during abstract reasoning. We compared the performance and neural representations of human participants with those of eight open-source LLMs on an abstract-pattern-completion task. We leveraged pattern type differences in task performance and in fixation-related potentials (FRPs) as recorded by electroencephalography (EEG) during the task. Our findings indicate that only the largest tested LLMs (~70 billion parameters) achieve human-comparable accuracy, with Qwen-2.5-72B and DeepSeek-R1-70B also showing similarities with the human pattern-specific difficulty profile. Critically, every LLM tested forms representations that distinctly cluster the abstract pattern categories within their intermediate layers, although the strength of this clustering scales with their performance on the task. Moderate positive correlations were observed between the representational geometries of task-optimal LLM layers and human frontal FRPs. These results consistently diverged from comparisons with other EEG measures (response-locked ERPs and resting EEG), suggesting a potential shared representational space for abstract patterns. This indicates that LLMs might mirror human brain mechanisms in abstract reasoning, offering preliminary evidence of shared principles between biological and artificial intelligence.
- Abstract(参考訳): 本研究では,大言語モデル(LLM)が抽象的推論中に人間の神経認知を反映するかどうかを検討する。
我々は,抽象パターン補完タスクにおいて,人体の性能と神経表現を8つのオープンソースLCMと比較した。
脳波(EEG)によって記録された課題性能と固定関連電位(FRP)のパターン型差を利用した。
以上の結果から,ヒトのパターン特異的な難易度プロファイルと類似性を示すのがQwen-2.5-72BとDeepSeek-R1-70Bであることがわかった。
批判的に言えば、全てのLLMテストは、抽象パターンカテゴリを中間層内に明確にクラスタリングする表現を定式化するが、このクラスタリングの強さはタスクのパフォーマンスとともにスケールする。
タスク最適LLM層とヒト前頭FRPの表現的ジオメトリの間には,適度な正の相関が認められた。
これらの結果は、他の脳波測定値(応答ロックされたERPと静止脳波)との比較から、抽象パターンの共有表現空間の可能性を示している。
このことは、LLMが人間の脳のメカニズムを抽象的推論に反映し、生物学的と人工知能の共通原理の予備的な証拠を提供する可能性を示唆している。
関連論文リスト
- Do Large Language Models Think Like the Brain? Sentence-Level Evidence from fMRI and Hierarchical Embeddings [28.210559128941593]
本研究では,大規模言語モデルにおける階層的表現が,人文理解時の動的神経応答とどのように一致しているかを検討する。
その結果、モデル性能の改善は、表現アーキテクチャを脳に似た階層へと進化させることを示した。
論文 参考訳(メタデータ) (2025-05-28T16:40:06Z) - Embodied-R: Collaborative Framework for Activating Embodied Spatial Reasoning in Foundation Models via Reinforcement Learning [58.86928947970342]
Embodied-Rは、知覚のための大規模視覚言語モデルと推論のための小規模言語モデルを組み合わせたフレームワークである。
わずか5kのエボダイドビデオサンプルのトレーニングの後、Embodied-Rと3B LMは最先端のマルチモーダル推論モデルと一致した。
Embodied-Rは、体系的分析や文脈統合のような創発的な思考パターンも示している。
論文 参考訳(メタデータ) (2025-04-17T06:16:11Z) - Human Cognitive Benchmarks Reveal Foundational Visual Gaps in MLLMs [65.93003087656754]
VisFactorは、よく確立された認知心理学評価から20の視覚中心のサブテストをデジタル化するベンチマークである。
GPT、Gemini、Claude、LLaMA、Qwen、SEEDファミリーから20のフロンティアマルチモーダル言語モデル(MLLM)を評価する。
最高のパフォーマンスモデルは100点中25.19点のスコアしか得られず、精神的な回転、空間的関係推論、図形の識別といったタスクに一貫して失敗する。
論文 参考訳(メタデータ) (2025-02-23T04:21:32Z) - Large Language Models Are Human-Like Internally [44.996518290660816]
近年の認知モデル研究は、より大きな言語モデル(LM)が人間の読書行動に適合していないことを報告している。
従来の結論は、LMの最終層に排他的に焦点を絞ったものであったと論じる。
解析の結果,より大きなLMの内部層から派生した次の単語確率は,人間の文処理データと一致していることがわかった。
論文 参考訳(メタデータ) (2025-02-03T18:48:32Z) - Aggregation Artifacts in Subjective Tasks Collapse Large Language Models' Posteriors [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理の主要な手法となっている。
本研究は,低アグリゲーション,異質なアノテーションを組み合わせたアグリゲーションの結果が,プロンプトに有害なノイズを生じさせるアノテーションのアーティファクトに繋がるかどうかを考察する。
この結果から,アグリゲーションは主観的タスクのモデル化において不明瞭な要因であり,代わりに個人をモデリングすることを重視することが示唆された。
論文 参考訳(メタデータ) (2024-10-17T17:16:00Z) - LLMs as Models for Analogical Reasoning [14.412456982731467]
アナロジカル推論は人間の認知と学習の基本である。
近年の研究では、大きな言語モデルが類似の推論タスクにおいて人間と一致することが示されている。
論文 参考訳(メタデータ) (2024-06-19T20:07:37Z) - PoLLMgraph: Unraveling Hallucinations in Large Language Models via State Transition Dynamics [51.17512229589]
PoLLMgraphは、大規模言語モデルのためのモデルベースのホワイトボックス検出および予測手法である。
LLMの内部状態遷移ダイナミクスを解析することにより,幻覚を効果的に検出できることを示す。
我々の研究は、LLMのモデルベースのホワイトボックス分析の新しい手法を開拓し、LLMの振る舞いの複雑なダイナミクスをさらに探求し、理解し、洗練する研究コミュニティを動機付けている。
論文 参考訳(メタデータ) (2024-04-06T20:02:20Z) - Probing Large Language Models from A Human Behavioral Perspective [24.109080140701188]
大規模言語モデル(LLM)は、現代のNLPにおいて支配的な基礎モデルとして登場した。
フィードフォワードネットワーク (FFN) やマルチヘッド・セルフアテンション (MHSA) などの予測プロセスや内部メカニズムの理解はいまだに未解明のままである。
論文 参考訳(メタデータ) (2023-10-08T16:16:21Z) - On the Relation between Internal Language Model and Sequence Discriminative Training for Neural Transducers [52.88268942796418]
内部言語モデル(ILM)のサブトラクションは、RNN-Transducerの性能向上に広く応用されている。
列識別訓練は, 理論的, 経験的両面からILMサブトラクションと強く相関していることを示す。
論文 参考訳(メタデータ) (2023-09-25T13:35:28Z) - Unveiling Theory of Mind in Large Language Models: A Parallel to Single
Neurons in the Human Brain [2.5350521110810056]
大きな言語モデル(LLM)は、あるレベルの心の理論(ToM)を示すことが発見されている。
LLMのToMの能力や人間との類似性に基づく正確なプロセスはほとんど不明である。
論文 参考訳(メタデータ) (2023-09-04T15:26:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。