論文の概要: The Relativity of AGI: Distributional Axioms, Fragility, and Undecidability
- arxiv url: http://arxiv.org/abs/2601.17335v1
- Date: Sat, 24 Jan 2026 06:32:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.603633
- Title: The Relativity of AGI: Distributional Axioms, Fragility, and Undecidability
- Title(参考訳): AGIの相対性:分布公理、脆弱性、不確定性
- Authors: Angshul Majumdar,
- Abstract要約: 我々は,AI(Artificial General Intelligence, AGI)が,存在,堅牢性,自己検証の絶対的主張を支持するコヒーレントな理論的定義を認めているかどうかを検討する。
我々はAGIを,タスクファミリ,タスク分布,パフォーマンス機能,明示的なリソース予算によってインデックス付けされた,分散的・リソース境界のセマンティック述語として公理的に定式化する。
- 参考スコア(独自算出の注目度): 11.62669179647184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study whether Artificial General Intelligence (AGI) admits a coherent theoretical definition that supports absolute claims of existence, robustness, or self-verification. We formalize AGI axiomatically as a distributional, resource-bounded semantic predicate, indexed by a task family, a task distribution, a performance functional, and explicit resource budgets. Under this framework, we derive four classes of results. First, we show that generality is inherently relational: there is no distribution-independent notion of AGI. Second, we prove non-invariance results demonstrating that arbitrarily small perturbations of the task distribution can invalidate AGI properties via cliff sets, precluding universal robustness. Third, we establish bounded transfer guarantees, ruling out unbounded generalization across task families under finite resources. Fourth, invoking Rice-style and Gödel--Tarski arguments, we prove that AGI is a nontrivial semantic property and therefore cannot be soundly and completely certified by any computable procedure, including procedures implemented by the agent itself. Consequently, recursive self-improvement schemes that rely on internal self-certification of AGI are ill-posed. Taken together, our results show that strong, distribution-independent claims of AGI are not false but undefined without explicit formal indexing, and that empirical progress in AI does not imply the attainability of self-certifying general intelligence.
- Abstract(参考訳): 我々は,AI(Artificial General Intelligence, AGI)が,存在,堅牢性,自己検証の絶対的主張を支持するコヒーレントな理論的定義を認めているかどうかを検討する。
我々はAGIを,タスクファミリ,タスク分布,パフォーマンス機能,明示的なリソース予算によってインデックス付けされた,分散的・リソース境界のセマンティック述語として公理的に定式化する。
この枠組みでは、結果の4つのクラスを導出する。
まず、一般性は本質的にリレーショナルであることを示し、AGIの分布非依存的な概念は存在しない。
第2に,タスク分布のゆらぎを任意に小さくすることで,崖によるAGI特性の無効化が可能であることを示す。
第3に,有限資源下でのタスクファミリ間の非有界一般化を除外し,有界移動保証を確立する。
第4に、ライス・スタイルとゲーデル・タルスキーの議論を呼び起こし、AGIが非自明な意味的性質であることを証明する。
その結果、AGIの内部自己証明に依存する再帰的な自己改善スキームが不適当である。
その結果、AGIの強い分布に依存しない主張は、明示的な形式的索引付けなしでは偽ではなく未定義であり、AIの実証的な進歩は、自己認識の汎用知性の実現可能性を示唆していないことがわかった。
関連論文リスト
- Non-Resolution Reasoning (NRR): A Computational Framework for Contextual Identity and Ambiguity Preservation [0.0]
現在の人工知能システムは、曖昧さを早期に解決する、基本的なアーキテクチャ上の限界を示す。
この早期のセマンティック崩壊は、標準的なニューラルネットワークに埋め込まれた古典的なアイデンティティの仮定に由来する。
あいまいさ保持を有効な推論モードとして扱う計算フレームワークであるNon-Resolution Reasoning (NRR)を提案する。
論文 参考訳(メタデータ) (2025-12-15T16:14:32Z) - Towards Unsupervised Causal Representation Learning via Latent Additive Noise Model Causal Autoencoders [1.9732490977700972]
教師なし表現学習は、潜伏する生成因子を回復しようとする。
観測データから因果変数を遠ざけることは、監督なしでは不可能である。
本研究では、非教師付き発見のための強力な誘導バイアスとして、Latent Additive Noise Model Causal Autoencoder (LANCA)を提案する。
論文 参考訳(メタデータ) (2025-12-15T10:52:30Z) - A Coherence-Based Measure of AGI [5.03411557189692]
一般的な知性は、すべての本質的な領域におけるバランスの取れた能力を反映すべきである。
本稿では、補償可能性指数の連続体上での一般化された手段の積分に基づくAGIのコヒーレンス対応尺度を提案する。
特殊化に報いる算術平均とは異なり、AUCは不均衡を罰し、ドメイン間の依存関係をキャプチャする。
論文 参考訳(メタデータ) (2025-10-23T17:51:42Z) - Latent Veracity Inference for Identifying Errors in Stepwise Reasoning [78.29317733206643]
本稿では、精度割当てに対する離散探索アルゴリズムであるVeracity Search(VS)を紹介する。
その他の方法では、後続の精度値よりも後続の分布において難解な推論を行う。
VSを一般化し、新しいコンテキストで正確なゼロショットの精度推論を可能にする。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Leveraging Unlabeled Data for Entity-Relation Extraction through
Probabilistic Constraint Satisfaction [54.06292969184476]
シンボリックドメイン知識の存在下でのエンティティ関係抽出の問題を研究する。
本手法では,論理文の正確な意味を捉える意味的損失を用いる。
低データ体制に焦点をあてて、セマンティックな損失がベースラインをはるかに上回ることを示す。
論文 参考訳(メタデータ) (2021-03-20T00:16:29Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。