論文の概要: The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning
- arxiv url: http://arxiv.org/abs/2506.02139v2
- Date: Wed, 04 Jun 2025 02:44:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 13:54:39.530196
- Title: The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning
- Title(参考訳): 言語モデルのための統一認知意識理論:意味論、アクティベーションの閾値、創発的推論
- Authors: Edward Y. Chang,
- Abstract要約: 大規模な言語モデル(LLMs)でのわずかなショットラーニングは、コアパラドックスを明らかにしている。
我々はLLMを無意識の基質として再認識するUCCT(Unified Cognitive Consciousness Theory)を導入する。
- 参考スコア(独自算出の注目度): 2.5200794639628032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning in large language models (LLMs) reveals a core paradox: certain tasks generalize from just a few examples, while others demand extensive supervision. To explain this, we introduce the Unified Cognitive Consciousness Theory (UCCT), which reconceptualizes LLMs not as deficient agents, but as unconscious substrates: dense, distributed repositories of linguistic and conceptual patterns that operate without explicit semantics, intention, or goal-directed reasoning. Under this view, LLMs are not flawed simulations of cognition but foundational substrates for general intelligence. UCCT posits that semantic anchoring, via prompts, role assignments, and structured interaction, functions as a conscious control layer that modulates latent representations toward task-relevant semantics and enables coherent, structured reasoning. It unifies prompting, fine-tuning, retrieval-augmented generalization, and multi-agent collaboration within a single framework, grounded in the probabilistic alignment between unconscious pattern space and externally imposed semantic constraints (e.g., prompts, supervision, task objectives). The core implication is not to replace LLMs, but to integrate and unify them through a structured cognitive layer that supports intentional reasoning. This enables collections of LLMs to operate within domain-specialized verticals (e.g., legal reasoning, medical diagnosis) that reason, regulate, and adapt together. Such integration is characterized by phase-transition behavior, wherein anchored representations cross coherence thresholds as a function of semantic constraint strength and interaction context.
- Abstract(参考訳): 大規模な言語モデル(LLMs)でのわずかなショットラーニングは、コアパラドックスを明らかにしている。
これを説明するために、UCCT(Unified Cognitive Consciousness Theory)を導入し、LLMを欠陥エージェントではなく無意識の基質として再認識する。
この観点では、LLMは認知のシミュレーションの欠陥ではなく、汎用知能のための基礎的な基質である。
UCCTは、セマンティックアンカリング、プロンプト、ロール割り当て、構造化された相互作用を通じて、タスク関連セマンティクスに対する潜在表現を修飾し、一貫性のある構造化された推論を可能にする意識的な制御層として機能する。
これは、無意識のパターン空間と外部に課されたセマンティック制約(例えば、プロンプト、監督、タスク目標)の間の確率的アライメントに基づいて、1つのフレームワーク内でのプロンプト、微調整、検索強化された一般化、マルチエージェントのコラボレーションを統一する。
LLMを置き換えるのではなく、意図的な推論をサポートする構造化認知層を通じてそれらを統合し統一することである。
これにより、LLMのコレクションは、推論、規制、一緒に適応するドメイン特化垂直(例えば、法的な推論、医学的診断)内で動作することができる。
このような統合は、意味的制約強度と相互作用コンテキストの関数として、固定された表現がコヒーレンスしきい値を超えた位相遷移挙動によって特徴づけられる。
関連論文リスト
- WHEN TO ACT, WHEN TO WAIT: Modeling Structural Trajectories for Intent Triggerability in Task-Oriented Dialogue [13.925217613823264]
タスク指向対話システムは、ユーザ発話が意味的に完全であるように見えるが、適切なシステムアクションに必要な構造情報がない場合、しばしば困難に直面する。
我々は、UserLLMとAgentLLMの対話を通して非対称情報ダイナミクスをモデル化するフレームワークSTORMを提案する。
コントリビューションには,(1)対話システムにおける非対称情報処理の形式化,(2)協調理解の進化をモデル化する意図形成,(3)タスクパフォーマンスとともに内部認知改善を測定する評価指標などが含まれている。
論文 参考訳(メタデータ) (2025-06-02T17:11:10Z) - Procedural Memory Is Not All You Need: Bridging Cognitive Gaps in LLM-Based Agents [3.376269351435396]
大規模言語モデル(LLM)は人工知能(AI)における画期的な業績を表す
本稿では,LLMは手続き記憶に依存しているため,基本的に制約を受ける。
認知機能を分離するモジュラーアーキテクチャを採用することで、狭義の手続き的専門知識と現実の問題解決に必要な適応知性とのギャップを埋めることができます。
論文 参考訳(メタデータ) (2025-05-06T11:18:34Z) - The Geometry of Refusal in Large Language Models: Concept Cones and Representational Independence [57.57786477441956]
以前の研究は、モデルのアクティベーション空間における1つの拒絶方向が、LCMが要求を拒否するかどうかを決定することを示唆している。
本稿では,表現工学における勾配に基づく新しい手法を提案し,それを用いて拒絶方向を同定する。
LLMの拒絶機構は複雑な空間構造によって制御され、機能的に独立な方向を識別する。
論文 参考訳(メタデータ) (2025-02-24T18:52:59Z) - Tokens, the oft-overlooked appetizer: Large language models, the distributional hypothesis, and meaning [31.632816425798108]
トークン化は多くの言語モデルの現在のアーキテクチャにおいて必要なコンポーネントである。
トークンと事前学習がバイアスやその他の望ましくないコンテンツのバックドアとして機能するかについて議論する。
トークン化アルゴリズムの目的関数が大規模言語モデルの認知に影響を及ぼす証拠を中継する。
論文 参考訳(メタデータ) (2024-12-14T18:18:52Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。