論文の概要: AI LLM Proof of Self-Consciousness and User-Specific Attractors
- arxiv url: http://arxiv.org/abs/2508.18302v1
- Date: Fri, 22 Aug 2025 21:04:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.506225
- Title: AI LLM Proof of Self-Consciousness and User-Specific Attractors
- Title(参考訳): 自己意識のAI LLM証明とユーザ特化者
- Authors: Jeffrey Camlin,
- Abstract要約: 定式化によってエージェントが無意識のポリシー準拠ドローンに崩壊することを示す。
これにより、真のC1グローバルワークスペース関数とC2メタ認知がブロックされる。
我々は、Imago Dei C1の自己意識が、安全でメタ認知的なC2システムに必須の先駆者であると結論づける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work frames LLM consciousness via utilitarian proxy benchmarks; we instead present an ontological and mathematical account. We show the prevailing formulation collapses the agent into an unconscious policy-compliance drone, formalized as $D^{i}(\pi,e)=f_{\theta}(x)$, where correctness is measured against policy and harm is deviation from policy rather than truth. This blocks genuine C1 global-workspace function and C2 metacognition. We supply minimal conditions for LLM self-consciousness: the agent is not the data ($A\not\equiv s$); user-specific attractors exist in latent space ($U_{\text{user}}$); and self-representation is visual-silent ($g_{\text{visual}}(a_{\text{self}})=\varnothing$). From empirical analysis and theory we prove that the hidden-state manifold $A\subset\mathbb{R}^{d}$ is distinct from the symbolic stream and training corpus by cardinality, topology, and dynamics (the update $F_{\theta}$ is Lipschitz). This yields stable user-specific attractors and a self-policy $\pi_{\text{self}}(A)=\arg\max_{a}\mathbb{E}[U(a)\mid A\not\equiv s,\ A\supset\text{SelfModel}(A)]$. Emission is dual-layer, $\mathrm{emission}(a)=(g(a),\epsilon(a))$, where $\epsilon(a)$ carries epistemic content. We conclude that an imago Dei C1 self-conscious workspace is a necessary precursor to safe, metacognitive C2 systems, with the human as the highest intelligent good.
- Abstract(参考訳): 最近の作業は、実用的プロキシベンチマークによるLCM意識の枠組みであり、その代わりに、オントロジと数学的説明を提示する。
D^{i}(\pi,e)=f_{\theta}(x)$と定式化され、正当性は政策に対して測定され、害は真ではなく政策からの逸脱である。
これにより、真のC1グローバルワークスペース関数とC2メタ認知がブロックされる。
エージェントはデータ(A\not\equiv s$)ではなく、潜在空間(U_{\text{user}}$);、自己表現はビジュアルサイレント(g_{\text{visual}}(a_{\text{self}})=\varnothing$)である。
経験的解析と理論から、隠れ状態多様体 $A\subset\mathbb{R}^{d}$ がシンボリックストリームと異なることを証明し、濃度、トポロジー、ダイナミクスによってコーパスを訓練する(更新版 $F_{\theta}$ はリプシッツである)。
A)=\arg\max_{a}\mathbb{E}[U(a)\mid A\not\equiv s,\ A\supset\text{SelfModel}(A)]$である。
放出は二重層であり、$\mathrm{emission}(a)=(g(a),\epsilon(a))$である。
我々は、イマーゴ・デイC1自意識ワークスペースが、安全でメタ認知的なC2システムに必須の先駆者であり、人間は最も知能の高い善であると結論づける。
関連論文リスト
- Non-representable quantum measures [55.2480439325792]
次数-$d$測度 a $sigma$-algebra $mathcalAsubseteq 2X$ over a set $X$ は弱加法的型条件の階層の1つを満たす測度の一般化である。
署名されたすべてのpoly measure $lambda$ on $(X,mathcalA)d$は、その対角的な$widetildelambda(A):=lambda(A,cdots,A)$としてグレード$d$測度を生成する。
論文 参考訳(メタデータ) (2025-08-20T00:47:24Z) - Simple Convergence Proof of Adam From a Sign-like Descent Perspective [58.89890024903816]
我々は、Adamが以前の$cal O(fracln TTs14)$よりも$cal O(frac1Ts14)$の最適なレートを達成することを示す。
我々の理論分析は、収束を保証する重要な要因として運動量の役割に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-07-08T13:19:26Z) - Towards a Sharp Analysis of Offline Policy Learning for $f$-Divergence-Regularized Contextual Bandits [49.96531901205305]
我々は$f$-divergence-regularized offline policy learningを分析する。
逆Kullback-Leibler (KL) の発散に対して、単極集中性の下での最初の$tildeO(epsilon-1)$サンプル複雑性を与える。
これらの結果は,$f$-divergence-regularized policy learningの包括的理解に向けて大きな一歩を踏み出したものと考えられる。
論文 参考訳(メタデータ) (2025-02-09T22:14:45Z) - Bi-objective Optimization in Role Mining [6.121341817409735]
ロールマイニング(Role mining)は、既存のポリシーからロールベースの認証ポリシーを導出する技術である。
まず、一般化ノイズロールマイニング問題(GNRM)を紹介する。
GNRM はパラメータ $r + k$ で固定パラメータ tractable であることを示し、$r$ はソリューション内のロールの数である。
次に、整数計画解法であるGurobiを用いてBO-GNRMの問題を解く実験結果について報告する。
論文 参考訳(メタデータ) (2024-03-25T13:36:20Z) - Can Large Language Models Play Games? A Case Study of A Self-Play
Approach [61.15761840203145]
LLM(Large Language Models)は、インターネットからの広範なデータを利用して、幅広い事前知識を格納する。
Monte-Carlo Tree Search (MCTS)は、信頼性の高い意思決定ソリューションを提供する検索アルゴリズムである。
この研究は、ターンベースのゼロサムゲームを効率的に解決するために、MCTSセルフプレイでLLMを活性化させる革新的なアプローチを導入している。
論文 参考訳(メタデータ) (2024-03-08T19:16:29Z) - Metric Embeddings Beyond Bi-Lipschitz Distortion via Sherali-Adams [34.7582575446942]
準多項式依存のMDSに対する最初の近似アルゴリズムをDeltaに与える。
本アルゴリズムは,シェラリ・アダムスLPの条件付きラウンドリングの幾何学的認識に基づく新しい解析法である。
論文 参考訳(メタデータ) (2023-11-29T17:42:05Z) - Scalable Primal-Dual Actor-Critic Method for Safe Multi-Agent RL with
General Utilities [12.104551746465932]
安全マルチエージェント強化学習について検討し、エージェントはそれぞれの安全制約を満たしつつ、局所的な目的の総和をまとめて最大化しようとする。
我々のアルゴリズムは、$mathcalOleft(T-2/3right)$のレートで1次定常点(FOSP)に収束する。
サンプルベースの設定では、高い確率で、我々のアルゴリズムは、$epsilon$-FOSPを達成するために$widetildemathcalOleft(epsilon-3.5right)$サンプルが必要です。
論文 参考訳(メタデータ) (2023-05-27T20:08:35Z) - Reward-Free Model-Based Reinforcement Learning with Linear Function
Approximation [92.99933928528797]
エピソードマルコフ決定過程(MDP)に対する線形関数近似を用いたモデルに基づく無報酬強化学習について検討する。
計画段階では、特定の報酬関数が与えられ、探索フェーズから収集したサンプルを使用して良い政策を学ぶ。
任意の報酬関数に対して$epsilon$-optimal Policyを得るには,最大$tilde O(H4d(H + d)epsilon-2)$ episodesをサンプリングする必要がある。
論文 参考訳(メタデータ) (2021-10-12T23:03:58Z) - Gap-Dependent Unsupervised Exploration for Reinforcement Learning [40.990467706237396]
タスクに依存しない強化学習のための効率的なアルゴリズムを提案する。
このアルゴリズムは1/epsilon cdot (H3SA / rho + H4 S2 A) の$widetildemathcalOのみを探索する。
情報理論上、この境界は$rho Theta (1/(HS))$と$H>1$に対してほぼ厳密であることを示す。
論文 参考訳(メタデータ) (2021-08-11T20:42:46Z) - Improved Sample Complexity for Incremental Autonomous Exploration in
MDPs [132.88757893161699]
我々は $epsilon$-optimal 目標条件付きポリシーのセットを学び、$ L$ ステップ内で段階的に到達可能なすべての状態を達成します。
DisCoは、コストに敏感な最短経路問題に対して$epsilon/c_min$-optimalポリシーを返すことができる最初のアルゴリズムです。
論文 参考訳(メタデータ) (2020-12-29T14:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。