論文の概要: Emergent Cognitive Convergence via Implementation: A Structured Loop Reflecting Four Theories of Mind (A Position Paper)
- arxiv url: http://arxiv.org/abs/2507.16184v1
- Date: Tue, 22 Jul 2025 02:54:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.942279
- Title: Emergent Cognitive Convergence via Implementation: A Structured Loop Reflecting Four Theories of Mind (A Position Paper)
- Title(参考訳): 実装による創発的認知収束:心の4つの理論を反映した構造化ループ(定位論文)
- Authors: Myung Ho Kim,
- Abstract要約: 我々は、心の4つの有力な理論にまたがる構造的収束の発見を報告する。
この収束はエージェントフローと呼ばれる実践的なAIエージェントアーキテクチャ内で発生した。
本稿では,エージェントフローで観測される設計レベルの規則性をキャプチャする記述的メタアーキテクチャとしてPEACEを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We report the discovery of a structural convergence across four influential theories of mind: Kahneman's dual-system theory, Friston's predictive processing, Minsky's society of mind, and Clark's extended mind-emerging unintentionally within a practical AI agent architecture called Agentic Flow. Designed to address limitations in large language models (LLMs), Agentic Flow comprises five interdependent modules such as Retrieval, Cognition, Control, Memory, and Action arranged in a recurrent cognitive loop. Although originally inspired only by Minsky and Clark, the system's structure retrospectively aligns with computational motifs found in all four theories, including predictive modeling, associative recall, and error-sensitive control. To assess this convergence, we conducted comparative experiments with baseline LLM agents on multi-step reasoning tasks. The structured agent achieved 95.8% task success and exhibited strong constraint adherence, while the baseline system succeeded 62.3% of the time. These results were not aimed at proving superiority, but at illustrating how theoretical structures may emerge through practical design choices rather than top-down theory. We introduce PEACE as a descriptive meta-architecture that captures design-level regularities observed in Agentic Flow. Not intended as a new theory, PEACE provides a shared vocabulary for understanding architectures shaped by real-world implementation demands. This paper should be read as a position paper - an exploratory reflection on how implementation can surface latent structural echoes of cognitive theory, without asserting theoretical unification.
- Abstract(参考訳): カーネマンの二重系理論、フリストンの予測処理、ミンスキーの心の社会、クラークの心の伸長は、エージェントフローと呼ばれる実践的なAIエージェントアーキテクチャの中で意図せずに進行する。
大規模言語モデル(LLM)の制限に対処するために設計されたエージェントフローは、繰り返し認知ループに配置されたRetrieval、Cognition、Control、Memory、Actionといった5つの相互依存モジュールから構成される。
元々はミンスキーとクラークのみにインスパイアされたものの、システムの構造は、予測モデリング、連想リコール、エラー感度制御を含む4つの理論の全てで見られる計算モチーフと遡及的に一致している。
この収束性を評価するため,多段階推論タスクにおいて,ベースラインLLMエージェントを用いて比較実験を行った。
構造されたエージェントは95.8%のタスク成功を達成し、強い拘束力を示し、ベースラインシステムは62.3%を成功させた。
これらの結果は、優位性を証明することではなく、トップダウン理論よりも実用的な設計選択を通じて理論構造がどのように現れるかを説明することを目的としていた。
本稿では,エージェントフローで観測される設計レベルの規則性をキャプチャする記述的メタアーキテクチャとしてPEACEを紹介する。
新しい理論として意図されたものではなく、PEACEは現実世界の実装要求によって形成されたアーキテクチャを理解するための共通語彙を提供する。
本論文は, 理論的統一を主張することなく, 認知理論の潜在構造エコーをどのように表すかの探索的考察として, 位置紙として読むべきである。
関連論文リスト
- ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs [54.154593699263074]
ProtoReasoningは、大規模推論モデルの推論能力を高めるフレームワークである。
ProtoReasoningは問題を対応するプロトタイプ表現に変換する。
ProtoReasoningは論理的推論に基づくベースラインモデルよりも4.7%改善されている。
論文 参考訳(メタデータ) (2025-06-18T07:44:09Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
本稿では,非自明な知識集約を実現するLLMが,真に整合した知識表現を同時に達成できないという,基本的な不合理性定理を確立する。
この不可能性は工学的な制限ではなく、情報集約自体の数学的構造から生じる。
幻覚と想像力が数学的に同一現象であることを示すことによって、情報保存の必要な違反において、先進的なAIシステムにおいてこれらの行動を管理するための原則的基盤を提供する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
大規模言語モデル(LLM)は潜在パターンの膨大なリポジトリであるが、構造化されたガイダンスがなければ、明確な推論、セマンティックグラウンド、ゴール指向インテリジェンスが欠如している。
統一認知意識理論(UCCT: Unified Cognitive Consciousness Theory)は、LCMを外部メカニズム、少数ショットプロンプト、RAG、微調整、マルチエージェント推論を必要とする無意識の基質として再解釈する統一モデルである。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - Theoretical Foundations for Semantic Cognition in Artificial Intelligence [0.0]
モノグラフは、構造化セマンティックステートとしての信念の形式的モデリングを基礎とした、人工知能のためのモジュラー認知アーキテクチャを提供する。
信念状態は、操作者が同化、抽象化、無効化、メモリ、イントロスペクションを可能にするナビゲート可能な多様体に埋め込まれた言語表現の動的アンサンブルとして定義される。
論文 参考訳(メタデータ) (2025-04-29T23:10:07Z) - Cognitive Silicon: An Architectural Blueprint for Post-Industrial Computing Systems [0.0]
本稿では2035年に向けて提案された仮想的なフルスタックアーキテクチャフレームワークについて,認知コンピューティングシステム設計の軌道を探究する。
提案したアーキテクチャは、シンボリックなスキャフォールディング、管理されたメモリ、実行時のモラルコヒーレンス、シリコンとセマンティック層間のアライメント対応実行を統合する。
論文 参考訳(メタデータ) (2025-04-23T11:24:30Z) - Can Atomic Step Decomposition Enhance the Self-structured Reasoning of Multimodal Large Models? [68.72260770171212]
本稿では,最小のセマンティック・アトミックステップから構成される自己構造的思考の連鎖(SCoT)のパラダイムを提案する。
本手法は, 複雑なタスクに対して認知的CoT構造を生成するだけでなく, 過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-03-08T15:23:47Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - AtomThink: Multimodal Slow Thinking with Atomic Step Reasoning [68.65389926175506]
思考の自己構造連鎖(SCoT)の新たなパラダイムを提案する。
本手法は, 複雑なタスクに対する認知的CoT構造を生成するだけでなく, より簡単なタスクに対して過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-18T11:54:58Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Interpretable Reinforcement Learning Inspired by Piaget's Theory of
Cognitive Development [1.7778609937758327]
本稿では,思考の言語(LOTH)やスクリプト理論,ピアジェの認知発達理論などの理論が相補的なアプローチを提供するという考えを楽しませる。
提案するフレームワークは,人工知能システムにおいて,人間のような認知を実現するためのステップとみなすことができる。
論文 参考訳(メタデータ) (2021-02-01T00:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。