論文の概要: LLMs model how humans induce logically structured rules
- arxiv url: http://arxiv.org/abs/2507.03876v1
- Date: Sat, 05 Jul 2025 03:24:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.918411
- Title: LLMs model how humans induce logically structured rules
- Title(参考訳): LLMは、人間が論理的に構造化されたルールをいかに誘導するかをモデル化する
- Authors: Alyssa Loo, Ellie Pavlick, Roman Feiman,
- Abstract要約: 長年にわたる議論は、人工知能ニューラルネットワークの計算モデルとしての妥当性に関するものだった。
ニューラルネットワークの最近の進歩、特に大規模言語モデル(LLM)の出現は、この議論において重要な変化を示している。
我々は、LLMが人間の論理的概念を説明するのに必要な原始表現と計算の新たな理論的説明をインスタンス化するかもしれないと論じる。
- 参考スコア(独自算出の注目度): 18.202446211409548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A central goal of cognitive science is to provide a computationally explicit account of both the structure of the mind and its development: what are the primitive representational building blocks of cognition, what are the rules via which those primitives combine, and where do these primitives and rules come from in the first place? A long-standing debate concerns the adequacy of artificial neural networks as computational models that can answer these questions, in particular in domains related to abstract cognitive function, such as language and logic. This paper argues that recent advances in neural networks -- specifically, the advent of large language models (LLMs) -- represent an important shift in this debate. We test a variety of LLMs on an existing experimental paradigm used for studying the induction of rules formulated over logical concepts. Across four experiments, we find converging empirical evidence that LLMs provide at least as good a fit to human behavior as models that implement a Bayesian probablistic language of thought (pLoT), which have been the best computational models of human behavior on the same task. Moreover, we show that the LLMs make qualitatively different predictions about the nature of the rules that are inferred and deployed in order to complete the task, indicating that the LLM is unlikely to be a mere implementation of the pLoT solution. Based on these results, we argue that LLMs may instantiate a novel theoretical account of the primitive representations and computations necessary to explain human logical concepts, with which future work in cognitive science should engage.
- Abstract(参考訳): 認知科学の中心的な目的は、心の構造とその発達の両方について、計算学的に明示的な説明を提供することである。
長年にわたる議論は、これらの疑問に答えられる計算モデルとして、特に言語や論理のような抽象的な認知機能に関連する領域において、人工ニューラルネットワークの妥当性を懸念している。
本稿では、ニューラルネットワークの最近の進歩、特に大規模言語モデル(LLM)の出現が、この議論の重要な転換点であると主張している。
我々は、論理的概念に則った規則の導出を研究するために用いられる既存の実験パラダイムに基づいて、様々な LLM を試験する。
4つの実験で、LLMが人間の行動に少なくとも適しているという実証的な証拠が、同一タスクにおける人間の行動の最良の計算モデルであるベイズ確率論的思考言語(pLoT)を実装したモデルとして得られている。
さらに, LLM はタスク完了のために推論および展開されるルールの性質について, 定性的に異なる予測を行い, LLM が pLoT ソリューションの実装である可能性が示唆された。
これらの結果に基づき、LLMは人間の論理的概念を説明するのに必要な原始的表現と計算の新たな理論的説明をインスタンス化することができると論じる。
関連論文リスト
- Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Emergence of psychopathological computations in large language models [22.78614613457714]
本研究では,大規模言語モデルに適用可能な心理病理の考察を行うための計算理論フレームワークを提案する。
我々の研究は、近未来の精神病理学的行動を持つAIシステムの可能性について言及している。
論文 参考訳(メタデータ) (2025-04-10T15:36:30Z) - Logical forms complement probability in understanding language model (and human) performance [14.694876851134273]
この研究は、自然言語で論理的推論を行う大規模言語モデルの能力を体系的に調査する。
命題論理およびモーダル論理における仮説的および解離的シロジズムの制御されたデータセットを導入する。
両者の行動データを収集・比較することにより,人間とLLMの論理的推論性能の類似点と相違点を示す。
論文 参考訳(メタデータ) (2025-02-13T18:46:44Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - LLMs as Models for Analogical Reasoning [14.412456982731467]
アナロジカル推論は人間の認知と学習の基本である。
近年の研究では、大きな言語モデルが類似の推論タスクにおいて人間と一致することが示されている。
論文 参考訳(メタデータ) (2024-06-19T20:07:37Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。