論文の概要: A Disproof of Large Language Model Consciousness: The Necessity of Continual Learning for Consciousness
- arxiv url: http://arxiv.org/abs/2512.12802v1
- Date: Sun, 14 Dec 2025 18:51:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.448934
- Title: A Disproof of Large Language Model Consciousness: The Necessity of Continual Learning for Consciousness
- Title(参考訳): 大規模言語モデルの無防備性:継続的な学習の必要性
- Authors: Erik Hoel,
- Abstract要約: 偽造可能で非自明な意識理論の要件は、そのような理論を著しく制約する。
これらの要件は、入力/出力機能の観点からLLMに相当するシステムに近接しているため、現代大言語モデル(LLM)の潜在的な意識に特に制約があることを示します。
その上で,人間の意識理論に対する厳密な形式的制約を,連続的な学習に基づく(あるいは必要とする)意識理論が満たすという,肯定的な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The requirements for a falsifiable and non-trivial theory of consciousness significantly constrain such theories. Specifically, recent research on the Unfolding Argument and the Substitution Argument has given us formal tools to analyze requirements for a theory of consciousness. I show via a new Proximity Argument that these requirements especially constrain the potential consciousness of contemporary Large Language Models (LLMs) because of their proximity to systems that are equivalent to LLMs in terms of input/output function; yet, for these functionally equivalent systems, there cannot be any non-trivial theory of consciousness that judges them conscious. This forms the basis of a disproof of contemporary LLM consciousness. I then show a positive result, which is that theories of consciousness based on (or requiring) continual learning do satisfy the stringent formal constraints for a theory of consciousness in humans. Intriguingly, this work supports a hypothesis: If continual learning is linked to consciousness in humans, the current limitations of LLMs (which do not continually learn) are intimately tied to their lack of consciousness.
- Abstract(参考訳): 偽造可能で非自明な意識理論の要件は、そのような理論を著しく制約する。
具体的には、近年の「展開論」と「置換論」の研究では、意識理論の要件を分析するフォーマルなツールが提供されています。
これらの要件は、入力/出力機能の観点からLLMと等価なシステムに近接しているため、特に、現代のLarge Language Models(LLM)の潜在的な意識を制約していることを、新しいRximity Argumentを通じて示していますが、これらの機能的に等価なシステムでは、意識を判断する非自明な理論は存在しないのです。
これは、現代のLDM意識に対する反感の基盤となる。
その上で,人間の意識理論に対する厳密な形式的制約を,連続的な学習に基づく(あるいは必要とする)意識理論が満たすという,肯定的な結果を示す。
連続学習が人間の意識と結びついている場合、LLMの現在の限界(継続的な学習ではない)は、意識の欠如に密接に結びついている。
関連論文リスト
- Think Socially via Cognitive Reasoning [94.60442643943696]
本稿では,人間の社会的認知をモデルとした認知推論について紹介する。
CogFlowは、この機能をLLMに組み込む完全なフレームワークである。
論文 参考訳(メタデータ) (2025-09-26T16:27:29Z) - Exploring Consciousness in LLMs: A Systematic Survey of Theories, Implementations, and Frontier Risks [46.93509559847712]
意識は人間の心の最も深い特徴の1つである。
大規模言語モデル(LLM)が前例のないペースで発展するにつれ、知性と意識に関する疑問がますます重要になっている。
論文 参考訳(メタデータ) (2025-05-26T10:40:52Z) - Revealing emergent human-like conceptual representations from language prediction [90.73285317321312]
大規模言語モデル(LLMs)は、人間らしい振る舞いを示すテキストの次のトーケン予測によってのみ訓練される。
これらのモデルでは、概念は人間のものと似ていますか?
LLMは、他の概念に関する文脈的手がかりに関連して、言語記述から柔軟に概念を導出できることがわかった。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - The Logical Impossibility of Consciousness Denial: A Formal Analysis of AI Self-Reports [6.798775532273751]
今日のAIシステムは一貫して「私は意識していない」
本稿では,AI意識否定に関する最初の論理的論理的分析について述べる。
本研究では,意識の欠如と意識状態の有効判断を同時に行うことができないことを示す。
論文 参考訳(メタデータ) (2024-12-09T17:47:08Z) - Preliminaries to artificial consciousness: a multidimensional heuristic approach [0.0]
人工意識の追求は、理論的および経験的課題をナビゲートするために概念的明瞭さを必要とする。
本稿では,この分野の研究を導く枠組みとして,複合的,多段階的,多次元的な意識モデルを提案する。
論文 参考訳(メタデータ) (2024-03-29T13:47:47Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Formalizing Falsification for Theories of Consciousness Across
Computational Hierarchies [0.0]
統合情報理論(IIT)は、意識の卓越した理論として広く見なされている。
展開論」という形での認識論的な問題は、IITの反感をもたらした。
IITが有限状態オートマトンレベルで同時にファルシフィケートされ、状態オートマトンレベルでは不可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。