論文の概要: Foundations of Artificial Intelligence Frameworks: Notion and Limits of AGI
- arxiv url: http://arxiv.org/abs/2511.18517v1
- Date: Sun, 23 Nov 2025 16:18:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.878869
- Title: Foundations of Artificial Intelligence Frameworks: Notion and Limits of AGI
- Title(参考訳): 人工知能フレームワークの基礎:AGIの表記と限界
- Authors: Khanh Gia Bui,
- Abstract要約: 人工知能は、スケールに関係なく、現在のニューラルネットワークパラダイムから生まれない、と我々は主張する。
本稿では,既存の施設(計算基板)と建築組織を区別する枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Within the limited scope of this paper, we argue that artificial general intelligence cannot emerge from current neural network paradigms regardless of scale, nor is such an approach healthy for the field at present. Drawing on various notions, discussions, present-day developments and observations, current debates and critiques, experiments, and so on in between philosophy, including the Chinese Room Argument and Gödelian argument, neuroscientific ideas, computer science, the theoretical consideration of artificial intelligence, and learning theory, we address conceptually that neural networks are architecturally insufficient for genuine understanding. They operate as static function approximators of a limited encoding framework - a 'sophisticated sponge' exhibiting complex behaviours without structural richness that constitute intelligence. We critique the theoretical foundations the field relies on and created of recent times; for example, an interesting heuristic as neural scaling law (as an example, arXiv:2001.08361 ) made prominent in a wrong way of interpretation, The Universal Approximation Theorem addresses the wrong level of abstraction and, in parts, partially, the question of current architectures lacking dynamic restructuring capabilities. We propose a framework distinguishing existential facilities (computational substrate) from architectural organization (interpretive structures), and outline principles for what genuine machine intelligence would require, and furthermore, a conceptual method of structuralizing the richer framework on which the principle of neural network system takes hold.
- Abstract(参考訳): 本論文の限られた範囲内では,現状のニューラルネットワークパラダイムから,規模に関係なく人工知能が出現することは不可能であり,現状の分野にとって健全なアプローチではない,と論じる。
コンピュータ科学、人工知能の理論的考察、学習理論など、さまざまな概念、議論、現在の発展と観察、現在の議論と批判、実験、哲学の間にある哲学、例えば、中国室内論、ゲーデル論、神経科学思想、コンピュータ科学、人工知能の理論的考察、そして学習理論に基づいて、ニューラルネットワークは真に理解するために建築的に不十分である、という概念に対処する。
それらは、限定的な符号化フレームワークの静的関数近似として機能し、知性を構成する構造的豊かさのない複雑な振る舞いを示す'高度化スポンジ'である。
例えば、神経スケーリング法としての興味深いヒューリスティック(例えば、arXiv:2001.08361 )は、解釈の間違った方法で顕著にされ、普遍近似定理は、間違った抽象化のレベルに対処し、部分的には、動的再構成能力に欠ける現在のアーキテクチャの問題である。
本稿では,既存の施設(計算基板)とアーキテクチャ構造(解釈構造)を区別する枠組みを提案し,さらに,ニューラルネットワークの原理が持つより豊かな枠組みを構造化する概念的手法を提案する。
関連論文リスト
- Mind Meets Space: Rethinking Agentic Spatial Intelligence from a Neuroscience-inspired Perspective [53.556348738917166]
エージェントAIの最近の進歩は、自律的なタスク実行と言語に基づく推論が可能なシステムにつながっている。
人間の空間知能は、統合された多感覚知覚、空間記憶、認知マップに根ざし、非構造環境における柔軟でコンテキスト対応の意思決定を可能にする。
論文 参考訳(メタデータ) (2025-09-11T05:23:22Z) - Nature's Insight: A Novel Framework and Comprehensive Analysis of Agentic Reasoning Through the Lens of Neuroscience [11.174550573411008]
エージェント推論のための神経科学に着想を得た新しい枠組みを提案する。
我々は,既存のAI推論手法を体系的に分類し,分析するために,この枠組みを適用した。
本稿では,ニューラルインスパイアされた新しい推論手法を提案する。
論文 参考訳(メタデータ) (2025-05-07T14:25:46Z) - Function Alignment: A New Theory of Mind and Intelligence, Part I: Foundations [0.0]
本稿では,心と知性の新たな理論である機能アライメントを紹介する。
意味、解釈、類推が階層表現間の相互作用からどのように現れるかを明確にモデル化する。
それはしばしば、計算アーキテクチャ、心理学理論、さらには禅のような観念的伝統を結びつけて、規律を分割する。
論文 参考訳(メタデータ) (2025-03-27T02:59:01Z) - Standard Neural Computation Alone Is Insufficient for Logical Intelligence [3.230778132936486]
論理的推論を統合するためには、標準的なニューラルネットワーク層を根本的に再考する必要がある、と我々は主張する。
論理演算の微分可能な近似を組み込んだ論理ニューラルネットワーク(LNU)モジュラーコンポーネントを提唱する。
論文 参考訳(メタデータ) (2025-02-04T09:07:45Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Rejecting Cognitivism: Computational Phenomenology for Deep Learning [5.070542698701158]
本稿では,新しい手法である計算現象学に基づくディープラーニングのための非表現主義的フレームワークを提案する。
我々は、人工知能が外部エンティティの表現を符号化する深層学習の現代の認知論的解釈を拒絶する。
論文 参考訳(メタデータ) (2023-02-16T20:05:06Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z) - A Mathematical Framework for Consciousness in Neural Networks [0.0]
本稿では,意識と身体的相関関係の間の説明的ギャップを埋めるための新しい数学的枠組みを提案する。
クエーリアは特異点であると主張するのではなく、クエーリアがなぜそのように感じるのかを「説明」する。
我々は、クォーリアを本質的に複雑性、計算、情報への還元以上の現象として認識する枠組みを確立する。
論文 参考訳(メタデータ) (2017-04-04T18:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。