論文の概要: Explicit Cognitive Allocation: A Principle for Governed and Auditable Inference in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.13443v1
- Date: Mon, 19 Jan 2026 23:00:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.087306
- Title: Explicit Cognitive Allocation: A Principle for Governed and Auditable Inference in Large Language Models
- Title(参考訳): 明示的認知的割当:大規模言語モデルにおけるオーディタブル推論の原理
- Authors: Héctor Manuel Manzanilla-Granados, Zaira Navarrete-Cazales, Miriam Pescador-Rojas, Tonahtiu Ramírez-Romero,
- Abstract要約: 本稿では,AI支援推論の原理である明示的認知割当を導入する。
我々は、この原理を、推論を探索とフレーミングの異なる段階に整理するアーキテクチャであるCognitive Universal Agent(CUA)でインスタンス化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid adoption of large language models (LLMs) has enabled new forms of AI-assisted reasoning across scientific, technical, and organizational domains. However, prevailing modes of LLM use remain cognitively unstructured: problem framing, knowledge exploration, retrieval, methodological awareness, and explanation are typically collapsed into a single generative process. This cognitive collapse limits traceability, weakens epistemic control, and undermines reproducibility, particularly in high-responsibility settings. We introduce Explicit Cognitive Allocation, a general principle for structuring AI-assisted inference through the explicit separation and orchestration of epistemic functions. We instantiate this principle in the Cognitive Universal Agent (CUA), an architecture that organizes inference into distinct stages of exploration and framing, epistemic anchoring, instrumental and methodological mapping, and interpretive synthesis. Central to this framework is the notion of Universal Cognitive Instruments (UCIs), which formalize heterogeneous means, including computational, experimental, organizational, regulatory, and educational instruments, through which abstract inquiries become investigable. We evaluate the effects of explicit cognitive and instrumental allocation through controlled comparisons between CUA-orchestrated inference and baseline LLM inference under matched execution conditions. Across multiple prompts in the agricultural domain, CUA inference exhibits earlier and structurally governed epistemic convergence, higher epistemic alignment under semantic expansion, and systematic exposure of the instrumental landscape of inquiry. In contrast, baseline LLM inference shows greater variability in alignment and fails to explicitly surface instrumental structure.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な採用により、科学的、技術的、組織的な領域にまたがる新たなAI支援推論が可能になった。
問題フレーミング、知識探索、検索、方法論的認識、説明は一般的に単一の生成過程に崩壊する。
この認知的崩壊は、トレーサビリティを制限し、てんかんのコントロールを弱め、特に高責任な環境での再現性を弱める。
本稿では,認知機能の明示的な分離とオーケストレーションを通じて,AI支援推論を構築するための一般的な原理である明示的認知割当を紹介する。
我々はこの原理を、探索とフレーミングの異なる段階に推論を整理するアーキテクチャであるCognitive Universal Agent(CUA)においてインスタンス化する。
この枠組みの中心にあるのがユニバーサル認知機器(UCIs)の概念であり、計算、実験、組織、規制、教育などの異質な手段を形式化し、抽象的な問合せが調査可能である。
我々は, CUA-orchestrated inferenceとベースラインLEM inferenceの制御された比較により, 明示的な認知的・楽器的アロケーションの効果を評価する。
農業領域における複数のプロンプトにまたがって、CUA推論は、より早く、構造的に支配されたてんかんの収束、意味的拡張下でのより高いてんかんのアライメント、調査の機器的景観の体系的な露出を示す。
対照的に、ベースラインLLM推論はアライメントのばらつきが大きく、機器構造を明示的に表すのに失敗する。
関連論文リスト
- From Educational Analytics to AI Governance: Transferable Lessons from Complex Systems Interventions [0.0]
我々は、CAPIRE内で開発された5つのコア原則が、AIシステム管理の課題に直接移行すると主張している。
どちらの領域も非線形性、出現、フィードバックループ、戦略的適応、経路依存を示す。
我々は、これらの原則を規制設計のために運用する統合フレームワークとして、複合システムAIガバナンス(CSAIG)を提案する。
論文 参考訳(メタデータ) (2025-12-15T12:16:57Z) - Structural DID with ML: Theory, Simulation, and a Roadmap for Applied Research [3.0031348283981987]
観測パネルデータの因果推論は、経済学、政治分析、より広範な社会科学において中心的な関心事となっている。
本稿では,構造同定と高次元推定を統合したS-DIDという革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T03:57:42Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
統一認知意識理論(UCCT)は、これらを巨大な無意識パターンリポジトリとみなしている。
UCCTはこの過程を、事前学習で学んだ統計的事前学習と文脈駆動のターゲットパターンの間のベイズ的競争として定式化している。
我々はこの理論を、しきい値交差、モダリティ、密度距離予測力の3つの原理で基礎づける。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - Multi-Scale Probabilistic Generation Theory: A Unified Information-Theoretic Framework for Hierarchical Structure in Large Language Models [1.0117553823134735]
大規模言語モデル(LLM)は目覚ましい能力を示すが、力学レベルでは理解されていない。
本稿では,マルチスケール確率生成理論(MSPGT)を紹介する。
MSPGTは、標準言語モデリングの目的が暗黙的にマルチスケール情報圧縮を最適化することを示唆している。
論文 参考訳(メタデータ) (2025-05-23T16:55:35Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。