論文の概要: What is Intelligence? A Cycle Closure Perspective
- arxiv url: http://arxiv.org/abs/2404.05484v3
- Date: Sat, 04 Oct 2025 10:47:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.139461
- Title: What is Intelligence? A Cycle Closure Perspective
- Title(参考訳): インテリジェンスとは何か? 循環的クロージャの視点から
- Authors: Xin Li,
- Abstract要約: 我々は、トポロジカル閉包法に根ざした構造力学的説明について論じる。
textbfMemory-Amortized Inference (MAI) はSbS,$rightarrow$,CCUPを実装する計算機構であることを示す。
- 参考スコア(独自算出の注目度): 6.0044467881527614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: What is intelligence? We argue for a structural-dynamical account rooted in a topological closure law: \emph{the boundary of a boundary vanishes} ($\partial^2=0$). This principle forces transient fragments to cancel while closed cycles persist as invariants, yielding the cascade $\partial^2\!=\!0 \Rightarrow \text{cycles (invariants)} \Rightarrow \text{memory} \Rightarrow \text{prediction (intelligence)}$. Prediction requires invariance: only order-invariant cycles can stabilize the predictive substrate. This motivates the \textbf{Structure-before-Specificity (SbS)} principle, where persistent structures ($\Phi$) must stabilize before contextual specificities ($\Psi$) can be meaningfully interpreted, and is formalized by the \textbf{Context-Content Uncertainty Principle (CCUP)}, which casts cognition as dynamic alignment that minimizes the joint uncertainty $H(\Phi,\Psi)$. We show that \textbf{Memory-Amortized Inference (MAI)} is the computational mechanism that implements SbS\,$\rightarrow$\,CCUP through dual bootstrapping: \emph{temporal} bootstrapping consolidates episodic specifics into reusable latent trajectories, while \emph{spatial} bootstrapping reuses these invariants across latent manifolds. This framework explains why \emph{semantics precedes syntax}: stable cycles anchor meaning, and symbolic syntax emerges only after semantic invariants are in place. In an evolutionary perspective, the same closure law unifies the trajectory of natural intelligence: from primitive memory traces in microbes, to cyclic sensorimotor patterns in bilaterians, to semantic generalization in mammals, culminating in human symbolic abstraction by natural language. In sum, intelligence arises from the progressive collapse of specificity into structure, grounded in the closure-induced emergence of invariants.
- Abstract(参考訳): インテリジェンスとは何か?
我々は、トポロジカル閉包法(英語版)に根付いた構造力学的説明(英語版)を論じる: \emph{the boundary of a boundary vanishes} ("\partial^2=0$")。
この原理は、閉サイクルが不変として持続している間に過渡的フラグメントをキャンセルさせ、カスケード$\partial^2\!
=\!
0 \Rightarrow \text{cycles (invariants) \Rightarrow \text{Memory} \Rightarrow \text{prediction (intelligence)$.0 \Rightarrow \text{cycles (invariants)
予測には不変性が必要であり、順序不変サイクルのみが予測基板を安定化することができる。
これは textbf{Structure-before-Specificity (SbS) の原理を動機付けており、永続構造(\Phi$)は文脈的特異性の前に安定させなければならない(\Psi$)が意味論的に解釈可能であり、認識を結合不確実性$H(\Phi,\Psi)$を最小化する動的アライメントとして位置づける \textbf{Context-Content Uncertainty Principle (CCUP) によって定式化されている。
本稿では,SbS\,$\rightarrow$\,CCUPを2重ブートストラッピングで実装する計算機構として,<textbf{Memory-Amortized Inference (MAI) が有用であることを示す。
このフレームワークは、‘emph{semantics>が構文に先行する理由を説明している。
進化学的観点では、同じクロージャ法則は、微生物の原始記憶の痕跡から、バイラテランの巡回感覚運動パターン、哺乳類のセマンティック・ジェネレーション、そして自然言語による人間の象徴的抽象の頂点まで、自然知性の軌跡を統一する。
要約すると、インテリジェンス(英語版)は、閉包によって誘導される不変量の出現に基づいて、特異性の段階的な崩壊から構造へと生じる。
関連論文リスト
- Scientific Machine Learning of Chaotic Systems Discovers Governing Equations for Neural Populations [0.05804487044220691]
カオス力学系から解釈可能な数学的表現を抽出するPEM-UDE法を提案する。
神経集団に適用した場合、生物学的制約を尊重する新しい支配方程式を導出する。
これらの方程式は、ニューラルネットワークにおける接続密度と発振周波数と同期の両方の創発的関係を予測する。
論文 参考訳(メタデータ) (2025-07-04T14:57:58Z) - From Memories to Maps: Mechanisms of In-Context Reinforcement Learning in Transformers [2.4554686192257424]
本研究は,げっ歯類行動にインスパイアされた計画課題の分布について,コンテクスト内強化学習のためのトランスフォーマーを訓練する。
モデルに現れる学習アルゴリズムを特徴付ける。
メモリは計算資源として機能し、フレキシブルな動作をサポートするために生のエクスペリエンスとキャッシュされた計算の両方を格納する。
論文 参考訳(メタデータ) (2025-06-24T14:55:43Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Don't Cut Corners: Exact Conditions for Modularity in Biologically Inspired Representations [52.48094670415497]
我々は、生物にインスパイアされた表現が、ソース変数(ソース)に関してモジュール化されるときの理論を開発する。
我々は、最適な生物学的にインスパイアされたリニアオートエンコーダのニューロンがモジュラー化されるかどうかを判断する情報源のサンプルに対して、必要かつ十分な条件を導出する。
我々の理論はどんなデータセットにも当てはまり、以前の研究で研究された統計的な独立性よりもはるかに長い。
論文 参考訳(メタデータ) (2024-10-08T17:41:37Z) - An Overlooked Role of Context-Sensitive Dendrites [2.225268436173329]
コンテクスト感受性 (CS-TPN) は, CモーメントとFFソマティック電流を柔軟に統合できることが示唆された。
これにより、よりコヒーレントな信号(バースト)の伝播が可能になり、より少ないニューロンで学習を速くする。
論文 参考訳(メタデータ) (2024-08-20T17:18:54Z) - CREIMBO: Cross-Regional Ensemble Interactions in Multi-view Brain Observations [3.3713037259290255]
現在の分析手法は、しばしばそのようなデータの豊かさを活かさない。
CREIMBOは、グラフ駆動辞書学習を通じて、セッションごとのニューラルアンサンブルの隠れた構成を特定する。
合成データ中の真の成分を回収するCREIMBOの能力を実証する。
論文 参考訳(メタデータ) (2024-05-27T17:48:32Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Inferring Inference [7.11780383076327]
我々は,大規模神経活動パターンから標準分散計算を推定するフレームワークを開発した。
確率的グラフィカルモデルに近似推論アルゴリズムを暗黙的に実装したモデル脳のための記録をシミュレートする。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
論文 参考訳(メタデータ) (2023-10-04T22:12:11Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - A probabilistic latent variable model for detecting structure in binary
data [0.6767885381740952]
スパースバイナリデータにおけるパターンの雑音や近似的な繰り返しを検出するために,新しい確率的二項潜在変数モデルを導入する。
モデルの能力は、網膜ニューロンから記録された構造を抽出することによって示される。
映画刺激時の網膜神経節細胞に記録されたスパイク応答に本モデルを適用した。
論文 参考訳(メタデータ) (2022-01-26T18:37:35Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - From internal models toward metacognitive AI [0.0]
前頭前皮質では、「認知現実監視ネットワーク」と呼ばれる分散型エグゼクティブネットワークが、生成的逆モデルペアの意識的な関与を編成する。
高い責任信号は、外界を最も捉えているペアに与えられる。
意識はすべての対における責任信号のエントロピーによって決定される。
論文 参考訳(メタデータ) (2021-09-27T05:00:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。