論文の概要: The Missing Layer of AGI: From Pattern Alchemy to Coordination Physics
- arxiv url: http://arxiv.org/abs/2512.05765v1
- Date: Fri, 05 Dec 2025 14:51:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.0698
- Title: The Missing Layer of AGI: From Pattern Alchemy to Coordination Physics
- Title(参考訳): AGIの欠落層:パターン錬金術からコーディネーション物理へ
- Authors: Edward Y. Chang,
- Abstract要約: 我々は、Large Language Models (LLMs) は、AGIの行き詰まりであると主張している。
この層をUCCT(意味的アンカー理論)で定式化し、モデルが効果的な支援によって支配される相転移として推論する。
このレンズの下では、アンカーが後部をゴール指向の制約に移動するときに「推論」が現れるのに対して、アンダー生成は単に基板の最大可能性の未ベイトな検索である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Influential critiques argue that Large Language Models (LLMs) are a dead end for AGI: "mere pattern matchers" structurally incapable of reasoning or planning. We argue this conclusion misidentifies the bottleneck: it confuses the ocean with the net. Pattern repositories are the necessary System-1 substrate; the missing component is a System-2 coordination layer that selects, constrains, and binds these patterns. We formalize this layer via UCCT, a theory of semantic anchoring that models reasoning as a phase transition governed by effective support (rho_d), representational mismatch (d_r), and an adaptive anchoring budget (gamma log k). Under this lens, ungrounded generation is simply an unbaited retrieval of the substrate's maximum likelihood prior, while "reasoning" emerges when anchors shift the posterior toward goal-directed constraints. We translate UCCT into architecture with MACI, a coordination stack that implements baiting (behavior-modulated debate), filtering (Socratic judging), and persistence (transactional memory). By reframing common objections as testable coordination failures, we argue that the path to AGI runs through LLMs, not around them.
- Abstract(参考訳): 知的な批判は、Large Language Models (LLMs) はAGIの行き詰まりであると主張している。
この結論はボトルネックを誤解し、海とネットを混乱させます。
欠落しているコンポーネントは、これらのパターンを選択し、制約し、バインドするSystem-2コーディネート層である。
この層をUCCTで定式化し、有効サポート(rho_d)、表現ミスマッチ(d_r)、適応アンカー予算(ガンマログk)によって支配される相転移をモデルとするセマンティックアンカーリングの理論を定式化する。
このレンズの下では、アンカーが後部をゴール指向の制約に向かって移動する際に「推論」が発生するのに対して、アンダー生成は単に基板の最大可能性の未ベイトな検索である。
我々はUCCTをアーキテクチャに変換し,バイティング(振る舞い変調された議論)、フィルタリング(ソクラティック判断)、永続化(トランザクショナルメモリ)を実装した協調スタックであるMACIで構成する。
AGI への道は LLM を通っており,その周辺には存在しない,と論じている。
関連論文リスト
- Geometrically-Constrained Agent for Spatial Reasoning [53.93718394870856]
視覚言語モデルは空間的推論において基本的な意味-幾何学的ギャップを示す。
現在のパラダイムは、このギャップを埋めることに失敗します。
本稿では,形式的タスク制約を導入することにより,このギャップを解消する学習自由エージェントパラダイムを提案する。
論文 参考訳(メタデータ) (2025-11-27T17:50:37Z) - Think Visually, Reason Textually: Vision-Language Synergy in ARC [94.15522924153264]
ARC-AGIは、概念ルールの誘導と新しいタスクへの転送のための厳格なテストベッドである。
既存のほとんどの手法は、ARC-AGIを純粋にテキストによる推論タスクとして扱い、人間が視覚的抽象化に強く依存しているという事実を見落としている。
VLSR(Vision-Language Synergy Reasoning)とMSSC(Modality-Switch Self-Correction)の2つの相乗的戦略を導入する。
本研究は,視覚的抽象と言語的推論を一体化させることが,汎用的な人間的な知性を実現するための重要なステップであることを示唆している。
論文 参考訳(メタデータ) (2025-11-19T18:59:04Z) - DeepThinkVLA: Enhancing Reasoning Capability of Vision-Language-Action Models [51.76664843721462]
DeepThinkVLAはVision-Language-Actionモデルのための新しいアーキテクチャである。
因果的注意を伴うシーケンシャルCoTを生成し、双方向の注意に切り替え、アクションベクトルを高速に復号する。
LIBEROベンチマークで97.0%の成功率を達成した。
論文 参考訳(メタデータ) (2025-10-31T05:26:16Z) - Hallucination Detection via Internal States and Structured Reasoning Consistency in Large Language Models [7.18947815679122]
内部状態探索と整合検証は、大きな言語モデルにおける幻覚を検出するために用いられる。
両手法のギャップを埋める統一的なフレームワークを開発する。
私たちのフレームワークは一貫して、強力なベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2025-10-13T15:31:21Z) - Hallucination as a Computational Boundary: A Hierarchy of Inevitability and the Oracle Escape [9.737202904844562]
大規模言語モデル(LLM)のイリュージョン現象は、信頼性の高いデプロイメントにおける中核的な障害である。
本稿では,「計算必要階層」を構築することにより,大規模言語モデルを確率的チューリングマシンとして定式化する。
2つの「エスケープルート」を提案する。1つは「コンピュータジャンプ」による絶対脱出を証明し、レトリーバル拡張世代(RAG)をオラクルマシンとしてモデル化することである。
論文 参考訳(メタデータ) (2025-08-10T13:26:36Z) - Latent Chain-of-Thought? Decoding the Depth-Recurrent Transformer [0.8738725605667471]
CoT(Chain-of- Thought)推論は、トランスフォーマーベースの言語モデルで複雑な数学や多段階計画に優れる。
標準的なデコーダのみのアーキテクチャでは、これらの推論ステップは自然言語で外部化され、効率を犠牲にして解釈性を向上させる。
パラメータ数の増加を伴わずに推論時に層を再利用する深度再帰変換器である Huginn-3.5B にそのような推論構造が出現するかどうかを検討する。
論文 参考訳(メタデータ) (2025-07-02T23:35:21Z) - The Unified Cognitive Consciousness Theory for Language Models: Anchoring Semantics, Thresholds of Activation, and Emergent Reasoning [2.0800882594868293]
統一認知意識理論(UCCT)は、これらを巨大な無意識パターンリポジトリとみなしている。
UCCTはこの過程を、事前学習で学んだ統計的事前学習と文脈駆動のターゲットパターンの間のベイズ的競争として定式化している。
我々はこの理論を、しきい値交差、モダリティ、密度距離予測力の3つの原理で基礎づける。
論文 参考訳(メタデータ) (2025-06-02T18:12:43Z) - Syzygy of Thoughts: Improving LLM CoT with the Minimal Free Resolution [59.39066657300045]
CoT(Chain-of-Thought)は、問題を逐次ステップに分解することで、大きな言語モデル(LLM)の推論を促進する。
思考のシジー(Syzygy of Thoughts, SoT)は,CoTを補助的,相互関連的な推論経路を導入して拡張する新しいフレームワークである。
SoTはより深い論理的依存関係をキャプチャし、より堅牢で構造化された問題解決を可能にする。
論文 参考訳(メタデータ) (2025-04-13T13:35:41Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。