論文の概要: Emergent Cognitive Convergence via Implementation: A Structured Loop Reflecting Four Theories of Mind (A Position Paper)
- arxiv url: http://arxiv.org/abs/2507.16184v1
- Date: Tue, 22 Jul 2025 02:54:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.942279
- Title: Emergent Cognitive Convergence via Implementation: A Structured Loop Reflecting Four Theories of Mind (A Position Paper)
- Title(参考訳): 実装による創発的認知収束:心の4つの理論を反映した構造化ループ(定位論文)
- Authors: Myung Ho Kim,
- Abstract要約: 我々は、心の4つの有力な理論にまたがる構造的収束の発見を報告する。
この収束はエージェントフローと呼ばれる実践的なAIエージェントアーキテクチャ内で発生した。
本稿では,エージェントフローで観測される設計レベルの規則性をキャプチャする記述的メタアーキテクチャとしてPEACEを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We report the discovery of a structural convergence across four influential theories of mind: Kahneman's dual-system theory, Friston's predictive processing, Minsky's society of mind, and Clark's extended mind-emerging unintentionally within a practical AI agent architecture called Agentic Flow. Designed to address limitations in large language models (LLMs), Agentic Flow comprises five interdependent modules such as Retrieval, Cognition, Control, Memory, and Action arranged in a recurrent cognitive loop. Although originally inspired only by Minsky and Clark, the system's structure retrospectively aligns with computational motifs found in all four theories, including predictive modeling, associative recall, and error-sensitive control. To assess this convergence, we conducted comparative experiments with baseline LLM agents on multi-step reasoning tasks. The structured agent achieved 95.8% task success and exhibited strong constraint adherence, while the baseline system succeeded 62.3% of the time. These results were not aimed at proving superiority, but at illustrating how theoretical structures may emerge through practical design choices rather than top-down theory. We introduce PEACE as a descriptive meta-architecture that captures design-level regularities observed in Agentic Flow. Not intended as a new theory, PEACE provides a shared vocabulary for understanding architectures shaped by real-world implementation demands. This paper should be read as a position paper - an exploratory reflection on how implementation can surface latent structural echoes of cognitive theory, without asserting theoretical unification.
- Abstract(参考訳): カーネマンの二重系理論、フリストンの予測処理、ミンスキーの心の社会、クラークの心の伸長は、エージェントフローと呼ばれる実践的なAIエージェントアーキテクチャの中で意図せずに進行する。
大規模言語モデル(LLM)の制限に対処するために設計されたエージェントフローは、繰り返し認知ループに配置されたRetrieval、Cognition、Control、Memory、Actionといった5つの相互依存モジュールから構成される。
元々はミンスキーとクラークのみにインスパイアされたものの、システムの構造は、予測モデリング、連想リコール、エラー感度制御を含む4つの理論の全てで見られる計算モチーフと遡及的に一致している。
この収束性を評価するため,多段階推論タスクにおいて,ベースラインLLMエージェントを用いて比較実験を行った。
構造されたエージェントは95.8%のタスク成功を達成し、強い拘束力を示し、ベースラインシステムは62.3%を成功させた。
これらの結果は、優位性を証明することではなく、トップダウン理論よりも実用的な設計選択を通じて理論構造がどのように現れるかを説明することを目的としていた。
本稿では,エージェントフローで観測される設計レベルの規則性をキャプチャする記述的メタアーキテクチャとしてPEACEを紹介する。
新しい理論として意図されたものではなく、PEACEは現実世界の実装要求によって形成されたアーキテクチャを理解するための共通語彙を提供する。
本論文は, 理論的統一を主張することなく, 認知理論の潜在構造エコーをどのように表すかの探索的考察として, 位置紙として読むべきである。
関連論文リスト
- On Multi-Step Theorem Prediction via Non-Parametric Structural Priors [50.16583672681106]
本研究では,インコンテキスト学習(ICL)のレンズによる学習自由な定理予測について検討する。
本稿では,過去の解の時間的依存関係を有向グラフとしてエンコードし,推論中に探索空間を効果的に引き起こす明示的なトポロジ的制約を課すTheorem Precedence Graphsを提案する。
FormalGeo7kベンチマークの実験から,本手法は89.29%の精度を実現し,ICLベースラインを著しく上回り,最先端の教師付きモデルに適合することがわかった。
論文 参考訳(メタデータ) (2026-03-05T06:08:50Z) - Emergent Structured Representations Support Flexible In-Context Inference in Large Language Models [77.98801218316505]
大型言語モデル(LLM)は、人間のような推論を示唆する創発的な行動を示す。
テキスト内概念推論におけるLLMの内部処理について検討する。
論文 参考訳(メタデータ) (2026-02-08T03:14:39Z) - Deep Unfolding: Recent Developments, Theory, and Design Guidelines [99.63555420898554]
この記事では、最適化アルゴリズムを構造化されたトレーニング可能なMLアーキテクチャに変換するフレームワークであるDeep Unfoldingのチュートリアルスタイルの概要を提供する。
推論と学習のための最適化の基礎を概観し、深層展開のための4つの代表的な設計パラダイムを導入し、その反復的な性質から生じる特有なトレーニングスキームについて議論する。
論文 参考訳(メタデータ) (2025-12-03T13:16:35Z) - Bridging Symbolic Control and Neural Reasoning in LLM Agents: The Structured Cognitive Loop [0.0]
エージェント認知を,検索,認知,制御,行動,記憶の5段階に分けたモジュール型アーキテクチャであるStructured Cognitive Loop (SCL)を導入する。
SCLの中核であるSoft Symbolic Controlは、確率的推論にシンボリック制約を適用する適応的なガバナンスメカニズムである。
我々は,ライブGPT-4oによる旅行計画エージェントとともに,R-CCAMループアーキテクチャを実演する完全なオープンソース実装を提供する。
論文 参考訳(メタデータ) (2025-11-21T05:19:34Z) - Cognitive Foundations for Reasoning and Their Manifestation in LLMs [63.12951576410617]
大規模言語モデル(LLM)は複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムによって正しい出力を達成することを示唆している。
我々は認知科学研究を、推論不変量、メタ認知制御、推論と知識の組織化のための表現、変換操作にまたがる28の認知要素の分類学に合成する。
複雑な問題に対して66.7%の性能向上を図り、成功構造を自動的に把握するテストタイム推論ガイダンスを開発した。
論文 参考訳(メタデータ) (2025-11-20T18:59:00Z) - Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - CoT-Space: A Theoretical Framework for Internal Slow-Thinking via Reinforcement Learning [14.337056020596465]
CoT-Spaceは、離散トークン予測タスクから連続的、推論レベルのセマンティック空間内の最適化プロセスへの推論を、LLM(Large Language Models)に再キャストする新しい理論フレームワークである。
最適CoT長への収束は、不適合と過適合の基本的なトレードオフの自然な結果であることを示す。
論文 参考訳(メタデータ) (2025-09-04T09:02:16Z) - Understanding Transformers through the Lens of Pavlovian Conditioning [0.5076419064097734]
本稿では,注意のコア計算をパブロヴィアン条件付けとして再解釈する理論的枠組みを提案する。
注意点のクエリ,キー,値が,古典的条件付けの3つの要素にマッピング可能であることを示す。
我々の枠組みは、この線形化モデルに基づくいくつかの理論的洞察をもたらす。
論文 参考訳(メタデータ) (2025-08-05T05:00:00Z) - ProtoReasoning: Prototypes as the Foundation for Generalizable Reasoning in LLMs [54.154593699263074]
ProtoReasoningは、大規模推論モデルの推論能力を高めるフレームワークである。
ProtoReasoningは問題を対応するプロトタイプ表現に変換する。
ProtoReasoningは論理的推論に基づくベースラインモデルよりも4.7%改善されている。
論文 参考訳(メタデータ) (2025-06-18T07:44:09Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
本稿では,非自明な知識集約を実現するLLMが,真に整合した知識表現を同時に達成できないという,基本的な不合理性定理を確立する。
この不可能性は工学的な制限ではなく、情報集約自体の数学的構造から生じる。
幻覚と想像力が数学的に同一現象であることを示すことによって、情報保存の必要な違反において、先進的なAIシステムにおいてこれらの行動を管理するための原則的基盤を提供する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
大規模言語モデル(LLM)は潜在パターンの膨大なリポジトリであるが、構造化されたガイダンスがなければ、明確な推論、セマンティックグラウンド、ゴール指向インテリジェンスが欠如している。
統一認知意識理論(UCCT: Unified Cognitive Consciousness Theory)は、LCMを外部メカニズム、少数ショットプロンプト、RAG、微調整、マルチエージェント推論を必要とする無意識の基質として再解釈する統一モデルである。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - Theoretical Foundations for Semantic Cognition in Artificial Intelligence [0.0]
モノグラフは、構造化セマンティックステートとしての信念の形式的モデリングを基礎とした、人工知能のためのモジュラー認知アーキテクチャを提供する。
信念状態は、操作者が同化、抽象化、無効化、メモリ、イントロスペクションを可能にするナビゲート可能な多様体に埋め込まれた言語表現の動的アンサンブルとして定義される。
論文 参考訳(メタデータ) (2025-04-29T23:10:07Z) - Cognitive Silicon: An Architectural Blueprint for Post-Industrial Computing Systems [0.0]
本稿では2035年に向けて提案された仮想的なフルスタックアーキテクチャフレームワークについて,認知コンピューティングシステム設計の軌道を探究する。
提案したアーキテクチャは、シンボリックなスキャフォールディング、管理されたメモリ、実行時のモラルコヒーレンス、シリコンとセマンティック層間のアライメント対応実行を統合する。
論文 参考訳(メタデータ) (2025-04-23T11:24:30Z) - Can Atomic Step Decomposition Enhance the Self-structured Reasoning of Multimodal Large Models? [68.72260770171212]
本稿では,最小のセマンティック・アトミックステップから構成される自己構造的思考の連鎖(SCoT)のパラダイムを提案する。
本手法は, 複雑なタスクに対して認知的CoT構造を生成するだけでなく, 過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-03-08T15:23:47Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - AtomThink: Multimodal Slow Thinking with Atomic Step Reasoning [68.65389926175506]
思考の自己構造連鎖(SCoT)の新たなパラダイムを提案する。
本手法は, 複雑なタスクに対する認知的CoT構造を生成するだけでなく, より簡単なタスクに対して過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-18T11:54:58Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Interpretable Reinforcement Learning Inspired by Piaget's Theory of
Cognitive Development [1.7778609937758327]
本稿では,思考の言語(LOTH)やスクリプト理論,ピアジェの認知発達理論などの理論が相補的なアプローチを提供するという考えを楽しませる。
提案するフレームワークは,人工知能システムにおいて,人間のような認知を実現するためのステップとみなすことができる。
論文 参考訳(メタデータ) (2021-02-01T00:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。