論文の概要: Beyond Turing: Memory-Amortized Inference as a Foundation for Cognitive Computation
- arxiv url: http://arxiv.org/abs/2508.14143v1
- Date: Tue, 19 Aug 2025 15:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.226897
- Title: Beyond Turing: Memory-Amortized Inference as a Foundation for Cognitive Computation
- Title(参考訳): チューリングを超えて:認知計算の基礎としてのメモリアノテート推論
- Authors: Xin Li,
- Abstract要約: 本稿では,メモリの潜時サイクル上での認識を推論としてモデル化する形式的フレームワークとして,メモリ記憶推論(MAI)を紹介した。
我々は,MAIがMountcastleのUniversal Cortical Algorithmの基本的な基盤を提供することを示す。
人工知能の実現にMAIが与える深い影響について,簡潔に論じる。
- 参考スコア(独自算出の注目度): 5.234742752529437
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Intelligence is fundamentally non-ergodic: it emerges not from uniform sampling or optimization from scratch, but from the structured reuse of prior inference trajectories. We introduce Memory-Amortized Inference (MAI) as a formal framework in which cognition is modeled as inference over latent cycles in memory, rather than recomputation through gradient descent. MAI systems encode inductive biases via structural reuse, minimizing entropy and enabling context-aware, structure-preserving inference. This approach reframes cognitive systems not as ergodic samplers, but as navigators over constrained latent manifolds, guided by persistent topological memory. Through the lens of delta-homology, we show that MAI provides a principled foundation for Mountcastle's Universal Cortical Algorithm, modeling each cortical column as a local inference operator over cycle-consistent memory states. Furthermore, we establish a time-reversal duality between MAI and reinforcement learning: whereas RL propagates value forward from reward, MAI reconstructs latent causes backward from memory. This inversion paves a path toward energy-efficient inference and addresses the computational bottlenecks facing modern AI. MAI thus offers a unified, biologically grounded theory of intelligence based on structure, reuse, and memory. We also briefly discuss the profound implications of MAI for achieving artificial general intelligence (AGI).
- Abstract(参考訳): インテリジェンスは基本的に非エルゴード的であり、一様サンプリングやスクラッチからの最適化ではなく、事前の推論軌道の構造化された再利用から生まれる。
本稿では、メモリの勾配降下による再計算よりも、メモリの潜時サイクルの推論として認知をモデル化する形式的なフレームワークとしてメモリ記憶推論(MAI)を紹介した。
MAIシステムは、構造的再利用による帰納バイアスを符号化し、エントロピーを最小化し、コンテキスト認識、構造保存推論を可能にする。
このアプローチは、エルゴードサンプリングではなく、永続的なトポロジカルメモリによって導かれる制約付き潜在多様体上のナビゲータとして認知システムを再構成する。
デルタホモロジーのレンズを通して、MAIは、各皮質列をサイクル一貫性メモリ状態上の局所的推論演算子としてモデル化し、マウントカッスルのユニバーサル・コルティカル・アルゴリズムの原理的基礎を提供することを示した。
さらに、MAIと強化学習の時間反転双対性を確立し、RLは報酬から価値を前方に伝播するのに対し、MAIは記憶から後方へ引き起こす原因を再構築する。
この反転はエネルギー効率のよい推論への道を開き、現代のAIが直面する計算ボトルネックに対処する。
したがって、MAIは構造、再利用、記憶に基づく統合された生物学的基盤を持つ知性理論を提供する。
また,人工知能(AGI)の実現におけるMAIの意義についても概説した。
関連論文リスト
- A Unified Cortical Circuit Model with Divisive Normalization and Self-Excitation for Robust Representation and Memory Maintenance [2.705743343600661]
本稿では,分割正規化と自己励磁を組み合わせ,ロバストな符号化を実現するリカレントニューラルネットワークを提案する。
2つの標準タスクでモデルの汎用性を実証する。
この研究は、ノイズ抑圧、ワーキングメモリ、近似ベイズ推論を橋渡しする統一的な数学的枠組みを確立する。
論文 参考訳(メタデータ) (2025-08-18T08:00:24Z) - Cycle-Consistent Helmholtz Machine: Goal-Seeded Simulation via Inverted Inference [5.234742752529437]
emphCycle-Consistent Helmholtz Machine (C$2$HM)を紹介する。
C$2$HM reframes inference as a emphgoal-seeded, emphasymmetric process grounded in structureed internal priors。
古典的償却推論に代わる生物学的にインスパイアされた代替手段を提供することにより、$C2$HMは生成モデリングを意図的シミュレーションとして再考する。
論文 参考訳(メタデータ) (2025-07-03T17:24:27Z) - Latent Structured Hopfield Network for Semantic Association and Retrieval [52.634915010996835]
エピソード記憶は、オブジェクト、場所、時間などの意味的要素をコヒーレントなイベント表現に関連付けることによって、過去の経験を思い出すことができる。
本稿では,連続ホップフィールドアトラクタダイナミクスを自動エンコーダアーキテクチャに統合するフレームワークであるLatent Structured Hopfield Network (LSHN)を提案する。
従来のホップフィールドネットワークとは異なり、我々のモデルは勾配勾配でエンドツーエンドに訓練され、スケーラブルで堅牢なメモリ検索を実現する。
論文 参考訳(メタデータ) (2025-06-02T04:24:36Z) - Temporal Model On Quantum Logic [0.0]
このフレームワークは、線形および分岐時間モデルを用いて、時間とともに命題の進化を定式化する。
メモリの階層構造は、有向非巡回グラフを用いて表される。
論文 参考訳(メタデータ) (2025-02-09T17:16:53Z) - Predictive Attractor Models [9.947717243638289]
生成特性が望ましい新しいシーケンスメモリアーキテクチャであるtextitPredictive Attractor Models (PAM) を提案する。
PAMは、皮質小柱の側方抑制を通じて、過去の文脈を一意に表現することで破滅的な忘れを避ける。
PAMは, 生物学的に妥当な枠組みで, ヘビアン可塑性規則による局所計算で訓練されていることを示す。
論文 参考訳(メタデータ) (2024-10-03T12:25:01Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - Bayesian Recurrent Units and the Forward-Backward Algorithm [91.39701446828144]
ベイズの定理を用いることで、ユニットワイド・リカレンスとフォワード・バックワードアルゴリズムに類似した後方再帰を導出する。
その結果得られたベイジアン再帰ユニットは、ディープラーニングフレームワーク内で再帰ニューラルネットワークとして統合することができる。
音声認識の実験は、最先端の繰り返しアーキテクチャの最後に派生したユニットを追加することで、訓練可能なパラメータの点で非常に低コストで性能を向上させることを示唆している。
論文 参考訳(メタデータ) (2022-07-21T14:00:52Z) - ROME: Robustifying Memory-Efficient NAS via Topology Disentanglement and
Gradient Accumulation [106.04777600352743]
微分可能なアーキテクチャサーチ(DARTS)は、スーパーネット全体がメモリに格納されているため、メモリコストが大幅に低下する。
シングルパスのDARTSが登場し、各ステップでシングルパスのサブモデルのみを選択する。
メモリフレンドリーだが、計算コストも低い。
RObustifying Memory-Efficient NAS (ROME) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-23T06:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。