論文の概要: Enhancing Computational Cognitive Architectures with LLMs: A Case Study
- arxiv url: http://arxiv.org/abs/2509.10972v1
- Date: Sat, 13 Sep 2025 20:14:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.861786
- Title: Enhancing Computational Cognitive Architectures with LLMs: A Case Study
- Title(参考訳): LLMによる計算認知アーキテクチャの強化:ケーススタディ
- Authors: Ron Sun,
- Abstract要約: 本稿では,Clarion認知アーキテクチャとLLMの相乗的組み合わせについて述べる。
Clarion の基本である暗黙的-明示的二分法は Clarion と LLM のシームレスな統合に活用されている。
その結果、LLMの計算能力とClarionの心理的優美さが組み合わさった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computational cognitive architectures are broadly scoped models of the human mind that combine different psychological functionalities (as well as often different computational methods for these different functionalities) into one unified framework. They structure them in a psychologically plausible and validated way. However, such models thus far have only limited computational capabilities, mostly limited by the computational tools and techniques that were adopted. More recently, LLMs have proved to be more capable computationally than any other tools. Thus, in order to deal with both real-world complexity and psychological realism at the same time, incorporating LLMs into cognitive architectures naturally becomes an important task. In the present article, a synergistic combination of the Clarion cognitive architecture and LLMs is discussed as a case study. The implicit-explicit dichotomy that is fundamental to Clarion is leveraged for a seamless integration of Clarion and LLMs. As a result, computational power of LLMs is combined with psychological nicety of Clarion.
- Abstract(参考訳): コンピュータ認知アーキテクチャ(Computational Cognitive Architecture)は、異なる心理学的機能(これら異なる機能のための異なる計算方法)を一つの統合されたフレームワークに組み合わせた、人間の心の広い範囲のモデルである。
彼らは心理的に妥当で検証可能な方法でそれらを構成する。
しかし、そのようなモデルは今のところ限られた計算能力しか持たず、多くは採用されている計算ツールや技術によって制限されている。
最近では、LSMは他のどのツールよりも計算能力が高いことが証明されている。
したがって、現実世界の複雑さと心理的リアリズムの両方を同時に扱うために、認知アーキテクチャにLLMを組み込むことが、自然に重要な課題となる。
本稿では,クラリオン認知アーキテクチャとLCMの相乗的組み合わせを事例として論じる。
Clarion の基本である暗黙的-明示的二分法は Clarion と LLM のシームレスな統合に活用されている。
その結果、LLMの計算能力とClarionの心理的優美さが組み合わさった。
関連論文リスト
- Cognitive Load-Aware Inference: A Neuro-Symbolic Framework for Optimizing the Token Economy of Large Language Models [0.9790236766474201]
本稿では,認知的負荷理論(CLT)と大規模言語モデル(LLM)推論のための神経科学から原理を運用する認知的負荷認識(CLAI)フレームワークを紹介する。
本研究では,内因性認知負荷,外因性認知負荷,ドイツ認知負荷の概念を定量化 LLM 尺度に定式化する。
本稿では,ゼロショット法であるCLAI-Promptと,これらの原理を自己認知経済に内包する微調整モデルであるCLAI-Tuneを提案する。
論文 参考訳(メタデータ) (2025-07-01T10:51:18Z) - Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Roles of LLMs in the Overall Mental Architecture [0.32634122554913997]
人間の精神的(認知的/心理学的)構造とその構成要素と構造を調べることができる。
ヒトのメンタルアーキテクチャでは、既存のLSMは暗黙のメンタルプロセスとよく対応している、と論じられている。
論文 参考訳(メタデータ) (2024-10-26T01:13:44Z) - Large Language Models and the Extended Church-Turing Thesis [0.0]
本稿では,計算可能性理論と計算複雑性理論を用いて,大規模言語モデル(LLM)の計算能力について検討する。
固定的な(非適応的な) LLM は、計算量的に a, probably large, deterministic finite-state transducer と同値であることを示す。
本研究は,いくつかの関連分野と哲学の幅広い文脈における知見のメリットについて論じる。
論文 参考訳(メタデータ) (2024-09-11T03:09:55Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。