論文の概要: Towards Error-Centric Intelligence II: Energy-Structured Causal Models
- arxiv url: http://arxiv.org/abs/2510.22050v1
- Date: Fri, 24 Oct 2025 22:19:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.801416
- Title: Towards Error-Centric Intelligence II: Energy-Structured Causal Models
- Title(参考訳): Error-Centric Intelligence II:Energy-Structured Causal Models
- Authors: Marcus Thomas,
- Abstract要約: インテリジェンスは説明を構築し、洗練する能力である。
本稿では、単に予測するだけでなく、理解しようとするシステムにおける因果推論のための形式言語を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary machine learning optimizes for predictive accuracy, yet systems that achieve state of the art performance remain causally opaque: their internal representations provide no principled handle for intervention. We can retrain such models, but we cannot surgically edit specific mechanisms while holding others fixed, because learned latent variables lack causal semantics. We argue for a conceptual reorientation: intelligence is the ability to build and refine explanations, falsifiable claims about manipulable structure that specify what changes and what remains invariant under intervention. Explanations subsume prediction but demand more: causal commitments that can be independently tested and corrected at the level of mechanisms. We introduce computational explanations, mappings from observations to intervention ready causal accounts. We instantiate these explanations with Energy Structured Causal Models (ESCMs), in which mechanisms are expressed as constraints (energy functions or vector fields) rather than explicit input output maps, and interventions act by local surgery on those constraints. This shift makes internal structure manipulable at the level where explanations live: which relations must hold, which can change, and what follows when they do. We provide concrete instantiations of the structural-causal principles LAP and ICM in the ESCM context, and also argue that empirical risk minimization systematically produces fractured, entangled representations, a failure we analyze as gauge ambiguity in encoder energy pairs. Finally, we show that under mild conditions, ESCMs recover standard SCM semantics. Building on Part I's principles (LAP, ICM, CAP) and its definition of intelligence as explanation-building under criticism, this paper offers a formal language for causal reasoning in systems that aspire to understand, not merely to predict.
- Abstract(参考訳): 現代の機械学習は予測精度を最適化するが、最先端のパフォーマンスを達成するシステムは因果的に不透明である。
このようなモデルを再訓練することはできるが、学習された潜伏変数には因果意味が欠けているため、他を固定しながら特定のメカニズムを外科的に編集することはできない。
インテリジェンスとは、説明を構築して洗練する能力であり、介入の下で何が変化し、何が不変であるかを規定する操作可能な構造に関する偽りの主張である。
説明は予測を仮定するが、より要求する: メカニズムのレベルで独立してテストし、修正できる因果的コミットメント。
我々は、計算説明、観察から介入可能な因果関係へのマッピングを導入する。
我々はこれらの説明をエネルギー構造因果モデル(ESCM)を用いてインスタンス化し、そのメカニズムは明示的な入力出力マップではなく制約(エネルギー関数やベクトル場)として表現され、それらの制約に対する局所的な手術による介入が作用する。
このシフトにより、内部構造は、どの関係を保たなければならないか、どの関係を保たなければならないか、どの関係が変わるか、そしてそれがいつ続くか、といった、説明が生きていくレベルで操作できる。
ESCMの文脈における構造因果原理の具体的なインスタンス化と、経験的リスク最小化は、エンコーダエネルギー対におけるゲージあいまいさとして解析する失敗である破壊的、絡み合った表現を系統的に生成すると主張している。
最後に,緩やかな条件下では,ESCMが標準的なSCMセマンティクスを回復することを示す。
パートIの原則(LAP, ICM, CAP)と, 批判に基づく説明構築としての知性の定義に基づいて, 本論文は, 単に予測することではなく, 理解を意図したシステムにおける因果推論のための形式言語を提供する。
関連論文リスト
- Subject-Event Ontology Without Global Time: Foundations and Execution Semantics [51.56484100374058]
形式化は9つの公理(A1-A9)を含み、実行可能性の正しさを保証する:履歴の単調性(I1)、因果性の非巡回性(I2)、トレーサビリティ(I3)である。
フォーマル化は、分散システム、マイクロサービスアーキテクチャ、DLTプラットフォーム、およびマルチパースペクティビティシナリオ(異なる主題から事実を分解する)に適用できる。
モデルに基づくアプローチ(A9): スキーマによるイベント検証、アクター認可、グローバル時間なしで因果連鎖の自動構築(W3)。
論文 参考訳(メタデータ) (2025-10-20T19:26:44Z) - Towards Error Centric Intelligence I, Beyond Observational Learning [0.0]
AGIの進歩はデータやスケールよりも理論に限定されていると我々は主張する。
まず、基礎、知識の定義、学習、知性、反事実能力、そしてAGIを作ることから始めます。
我々は、エージェントのアクションの下で、明示的かつ暗黙的なエラーがどのように進化するかについて、問題を3つの質問として再考した。
論文 参考訳(メタデータ) (2025-10-16T20:33:55Z) - Causal Reflection with Language Models [0.08594140167290097]
本稿では,因果関係を状態,行動,時間,摂動の動的関数として明示的にモデル化するフレームワークCausal Reflectionを紹介する。
我々は,予測結果と観測結果のミスマッチを識別し,因果仮説を生成し,エージェントの内部モデルを改訂する形式的リフレクション機構を定義する。
我々の枠組みは、進化する環境における因果的理解を適応し、自己修正し、伝達できる因果的反射エージェントの理論的基礎を定めている。
論文 参考訳(メタデータ) (2025-08-06T14:44:23Z) - Comprehension Without Competence: Architectural Limits of LLMs in Symbolic Computation and Reasoning [8.248971739035746]
大型言語モデル (LLM) は、記号的推論、算術的精度、論理的整合性を必要とするタスクにおいて、表面流速が著しく低下するが、体系的に失敗する。
本稿では,このような障害の構造的診断を行い,テキスト理解とテキストコンピテンスの間に持続的なギャップがあることを明らかにする。
我々はこの現象を,命令経路と行動経路が幾何学的に,機能的に二分される計算テキストスプリット・ブレイン症候群と呼ぶ。
論文 参考訳(メタデータ) (2025-07-14T04:01:45Z) - Generalization or Hallucination? Understanding Out-of-Context Reasoning in Transformers [76.42159902257677]
我々は、両方の行動は、アウト・オブ・コンテクスト推論(OCR)として知られる単一のメカニズムに由来すると論じる。
OCRは、関連する概念が因果関係であるかによって、一般化と幻覚の両方を駆動する。
我々の研究は、OCR現象を理解するための理論的基盤を提供し、知識注入から望ましくない行動を分析し緩和するための新しいレンズを提供する。
論文 参考訳(メタデータ) (2025-06-12T16:50:45Z) - Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - Towards a Grounded Theory of Causation for Embodied AI [12.259552039796027]
既存のフレームワークは、どの行動方針や状態空間の物理的変換を介入とみなすべきかを示すものではありません。
このフレームワークは、例えばポリシーを実行するエージェントによって誘導される状態空間の変換としてアクションを記述する。
これにより、マイクロ状態空間の変換とその抽象モデルの両方を均一に記述することができる。
論文 参考訳(メタデータ) (2022-06-28T12:56:43Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。