論文の概要: Emergent Cognitive Convergence via Implementation: A Structured Loop Reflecting Four Theories of Mind
- arxiv url: http://arxiv.org/abs/2507.16184v2
- Date: Fri, 31 Oct 2025 14:03:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 15:46:17.441461
- Title: Emergent Cognitive Convergence via Implementation: A Structured Loop Reflecting Four Theories of Mind
- Title(参考訳): 実装による創発的認知収束:心の4つの理論を反映した構造化ループ
- Authors: Myung Ho Kim,
- Abstract要約: 我々は、心の4つの影響力のある理論の間に構造的な収束を報告する。
収束は、エージェントフローと呼ばれる実用的なAIアーキテクチャの中で意図せずに現れる。
本稿では,知的アーキテクチャが,実践的制約によって形成される共有構造パターンへと進化する可能性を示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We report a structural convergence among four influential theories of mind: Kahneman's dual-system theory, Friston's predictive processing, Minsky's society of mind, and Clark's extended mind, emerging unintentionally within a practical AI architecture known as Agentic Flow. Designed to address the limitations of large language models (LLMs), Agentic Flow comprises five interlocking modules: Retrieval, Cognition, Control, Memory, and Action, organized into a repeatable cognitive loop. Although originally inspired only by Minsky and Clark, subsequent analysis revealed that its structure echoes computational motifs from all four theories, suggesting that theoretical convergence can emerge naturally from implementation demands rather than deliberate synthesis. Controlled evaluations confirmed this: the structured agent achieved 95.8% task success versus 62.3% for baseline LLMs, demonstrating robust constraint adherence and reproducible reasoning. We describe this convergence under a broader descriptive meta-architecture called PEACE, highlighting recurring design patterns such as predictive modeling, associative recall, and error-sensitive control. Later formalized as the Structured Cognitive Loop (SCL), this framework generalizes the same principles as a foundation for behavioral intelligence in LLM-based agents. Rather than claiming theoretical unification, this paper proposes that intelligent architectures may evolve toward shared structural patterns shaped by practical constraints. As a position paper, it aims to frame this convergence as an interpretive reflection rather than a finalized theory, inviting further theoretical and experimental dialogue. Agentic Flow, or equivalently the Structured Cognitive Loop, thus offers a glimpse of how a unified cognitive form can arise not from abstraction, but from the necessities of real-world reasoning.
- Abstract(参考訳): カーネマンの二重系理論、フリストンの予測処理、ミンスキーの心の社会、クラークの延長心は、エージェントフローと呼ばれる実用的なAIアーキテクチャの中で意図せず現れる。
大規模言語モデル(LLM)の制限に対処するために設計されたAgenic Flowは、5つのインターロックモジュールで構成されている。
元々はミンスキーとクラークにしかインスパイアされなかったが、その後の分析により、その構造は4つの理論の全ての計算モチーフと一致することが判明し、理論収束は故意の合成ではなく、実装要求から自然に生じる可能性があることを示唆した。
制御された評価により、構造化されたエージェントは95.8%のタスク成功と62.3%のベースラインLCMを達成し、堅牢な制約の固執と再現可能な推論を実証した。
PEACEと呼ばれるより広範な記述的メタアーキテクチャの下で、この収束を記述し、予測モデリング、連想リコール、エラー検出制御などの繰り返し設計パターンを強調した。
その後、構造化認知ループ (Structured Cognitive Loop, SCL) として形式化され、このフレームワークはLLMベースのエージェントにおける行動知性の基盤として同じ原則を一般化した。
本稿では, 理論的統一を主張するよりも, 実践的制約によって形成される共有構造パターンに向けて, インテリジェントアーキテクチャが進化する可能性があることを示唆する。
位置紙として、この収束を最終理論ではなく解釈的反射とみなし、さらなる理論的および実験的対話を促すことを目的としている。
エージェントフロー(Agenic Flow)、すなわち構造的認知ループ(Structured Cognitive Loop)は、抽象からではなく、現実世界の推論の必要性から、統一的な認知形式がどのように生まれるのかを垣間見る。
関連論文リスト
- On Multi-Step Theorem Prediction via Non-Parametric Structural Priors [50.16583672681106]
本研究では,インコンテキスト学習(ICL)のレンズによる学習自由な定理予測について検討する。
本稿では,過去の解の時間的依存関係を有向グラフとしてエンコードし,推論中に探索空間を効果的に引き起こす明示的なトポロジ的制約を課すTheorem Precedence Graphsを提案する。
FormalGeo7kベンチマークの実験から,本手法は89.29%の精度を実現し,ICLベースラインを著しく上回り,最先端の教師付きモデルに適合することがわかった。
論文 参考訳(メタデータ) (2026-03-05T06:08:50Z) - Emergent Structured Representations Support Flexible In-Context Inference in Large Language Models [77.98801218316505]
大型言語モデル(LLM)は、人間のような推論を示唆する創発的な行動を示す。
テキスト内概念推論におけるLLMの内部処理について検討する。
論文 参考訳(メタデータ) (2026-02-08T03:14:39Z) - Deep Unfolding: Recent Developments, Theory, and Design Guidelines [99.63555420898554]
この記事では、最適化アルゴリズムを構造化されたトレーニング可能なMLアーキテクチャに変換するフレームワークであるDeep Unfoldingのチュートリアルスタイルの概要を提供する。
推論と学習のための最適化の基礎を概観し、深層展開のための4つの代表的な設計パラダイムを導入し、その反復的な性質から生じる特有なトレーニングスキームについて議論する。
論文 参考訳(メタデータ) (2025-12-03T13:16:35Z) - Bridging Symbolic Control and Neural Reasoning in LLM Agents: The Structured Cognitive Loop [0.0]
エージェント認知を,検索,認知,制御,行動,記憶の5段階に分けたモジュール型アーキテクチャであるStructured Cognitive Loop (SCL)を導入する。
SCLの中核であるSoft Symbolic Controlは、確率的推論にシンボリック制約を適用する適応的なガバナンスメカニズムである。
我々は,ライブGPT-4oによる旅行計画エージェントとともに,R-CCAMループアーキテクチャを実演する完全なオープンソース実装を提供する。
論文 参考訳(メタデータ) (2025-11-21T05:19:34Z) - Cognitive Foundations for Reasoning and Their Manifestation in LLMs [63.12951576410617]
大規模言語モデル(LLM)は複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムによって正しい出力を達成することを示唆している。
我々は認知科学研究を、推論不変量、メタ認知制御、推論と知識の組織化のための表現、変換操作にまたがる28の認知要素の分類学に合成する。
複雑な問題に対して66.7%の性能向上を図り、成功構造を自動的に把握するテストタイム推論ガイダンスを開発した。
論文 参考訳(メタデータ) (2025-11-20T18:59:00Z) - Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - CoT-Space: A Theoretical Framework for Internal Slow-Thinking via Reinforcement Learning [14.337056020596465]
CoT-Spaceは、離散トークン予測タスクから連続的、推論レベルのセマンティック空間内の最適化プロセスへの推論を、LLM(Large Language Models)に再キャストする新しい理論フレームワークである。
最適CoT長への収束は、不適合と過適合の基本的なトレードオフの自然な結果であることを示す。
論文 参考訳(メタデータ) (2025-09-04T09:02:16Z) - Understanding Transformers through the Lens of Pavlovian Conditioning [0.5076419064097734]
本稿では,注意のコア計算をパブロヴィアン条件付けとして再解釈する理論的枠組みを提案する。
注意点のクエリ,キー,値が,古典的条件付けの3つの要素にマッピング可能であることを示す。
我々の枠組みは、この線形化モデルに基づくいくつかの理論的洞察をもたらす。
論文 参考訳(メタデータ) (2025-08-05T05:00:00Z) - ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs [54.154593699263074]
ProtoReasoningは、大規模推論モデルの推論能力を高めるフレームワークである。
ProtoReasoningは問題を対応するプロトタイプ表現に変換する。
ProtoReasoningは論理的推論に基づくベースラインモデルよりも4.7%改善されている。
論文 参考訳(メタデータ) (2025-06-18T07:44:09Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
本稿では,非自明な知識集約を実現するLLMが,真に整合した知識表現を同時に達成できないという,基本的な不合理性定理を確立する。
この不可能性は工学的な制限ではなく、情報集約自体の数学的構造から生じる。
幻覚と想像力が数学的に同一現象であることを示すことによって、情報保存の必要な違反において、先進的なAIシステムにおいてこれらの行動を管理するための原則的基盤を提供する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
大規模言語モデル(LLM)は潜在パターンの膨大なリポジトリであるが、構造化されたガイダンスがなければ、明確な推論、セマンティックグラウンド、ゴール指向インテリジェンスが欠如している。
統一認知意識理論(UCCT: Unified Cognitive Consciousness Theory)は、LCMを外部メカニズム、少数ショットプロンプト、RAG、微調整、マルチエージェント推論を必要とする無意識の基質として再解釈する統一モデルである。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - Theoretical Foundations for Semantic Cognition in Artificial Intelligence [0.0]
モノグラフは、構造化セマンティックステートとしての信念の形式的モデリングを基礎とした、人工知能のためのモジュラー認知アーキテクチャを提供する。
信念状態は、操作者が同化、抽象化、無効化、メモリ、イントロスペクションを可能にするナビゲート可能な多様体に埋め込まれた言語表現の動的アンサンブルとして定義される。
論文 参考訳(メタデータ) (2025-04-29T23:10:07Z) - Cognitive Silicon: An Architectural Blueprint for Post-Industrial Computing Systems [0.0]
本稿では2035年に向けて提案された仮想的なフルスタックアーキテクチャフレームワークについて,認知コンピューティングシステム設計の軌道を探究する。
提案したアーキテクチャは、シンボリックなスキャフォールディング、管理されたメモリ、実行時のモラルコヒーレンス、シリコンとセマンティック層間のアライメント対応実行を統合する。
論文 参考訳(メタデータ) (2025-04-23T11:24:30Z) - Can Atomic Step Decomposition Enhance the Self-structured Reasoning of Multimodal Large Models? [68.72260770171212]
本稿では,最小のセマンティック・アトミックステップから構成される自己構造的思考の連鎖(SCoT)のパラダイムを提案する。
本手法は, 複雑なタスクに対して認知的CoT構造を生成するだけでなく, 過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-03-08T15:23:47Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - AtomThink: Multimodal Slow Thinking with Atomic Step Reasoning [68.65389926175506]
思考の自己構造連鎖(SCoT)の新たなパラダイムを提案する。
本手法は, 複雑なタスクに対する認知的CoT構造を生成するだけでなく, より簡単なタスクに対して過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-18T11:54:58Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Interpretable Reinforcement Learning Inspired by Piaget's Theory of
Cognitive Development [1.7778609937758327]
本稿では,思考の言語(LOTH)やスクリプト理論,ピアジェの認知発達理論などの理論が相補的なアプローチを提供するという考えを楽しませる。
提案するフレームワークは,人工知能システムにおいて,人間のような認知を実現するためのステップとみなすことができる。
論文 参考訳(メタデータ) (2021-02-01T00:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。