論文の概要: Automatic Minds: Cognitive Parallels Between Hypnotic States and Large Language Model Processing
- arxiv url: http://arxiv.org/abs/2511.01363v1
- Date: Mon, 03 Nov 2025 09:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.192461
- Title: Automatic Minds: Cognitive Parallels Between Hypnotic States and Large Language Model Processing
- Title(参考訳): 自動マインド: 催眠状態と大規模言語モデル処理の認知的並列性
- Authors: Giuseppe Riva, Brenda K. Wiederhold, Fabrizia Mantovani,
- Abstract要約: 覚醒心の認知過程と大きな言語モデルの計算操作は、深い機能的並列性を共有している。
両方のシステムは、自動パターン補完機構を通じて、洗練された、文脈的に適切な振る舞いを生成する。
信頼できるAIの未来は、ジェネレーティブ・フラレンシーとエグゼクティブ・モニタリングのメカニズムを統合するハイブリッド・アーキテクチャにある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The cognitive processes of the hypnotized mind and the computational operations of large language models (LLMs) share deep functional parallels. Both systems generate sophisticated, contextually appropriate behavior through automatic pattern-completion mechanisms operating with limited or unreliable executive oversight. This review examines this convergence across three principles: automaticity, in which responses emerge from associative rather than deliberative processes; suppressed monitoring, leading to errors such as confabulation in hypnosis and hallucination in LLMs; and heightened contextual dependency, where immediate cues (for example, the suggestion of a therapist or the prompt of the user) override stable knowledge. These mechanisms reveal an observer-relative meaning gap: both systems produce coherent but ungrounded outputs that require an external interpreter to supply meaning. Hypnosis and LLMs also exemplify functional agency - the capacity for complex, goal-directed, context-sensitive behavior - without subjective agency, the conscious awareness of intention and ownership that defines human action. This distinction clarifies how purposive behavior can emerge without self-reflective consciousness, governed instead by structural and contextual dynamics. Finally, both domains illuminate the phenomenon of scheming: automatic, goal-directed pattern generation that unfolds without reflective awareness. Hypnosis provides an experimental model for understanding how intention can become dissociated from conscious deliberation, offering insights into the hidden motivational dynamics of artificial systems. Recognizing these parallels suggests that the future of reliable AI lies in hybrid architectures that integrate generative fluency with mechanisms of executive monitoring, an approach inspired by the complex, self-regulating architecture of the human mind.
- Abstract(参考訳): 覚醒心の認知過程と大言語モデル(LLM)の計算操作は、深い機能的並列性を共有している。
どちらのシステムも、限定的または信頼性の低い実行監視で動作する自動パターン補完機構によって、洗練された、文脈的に適切な振る舞いを生成する。
自動性(automaticity)は、熟考過程よりも連想的(asociative)(asociative)(asociative)(asociative)(asociative)(asociative)(asociative)(asociative)(aso ciative)(asociative)(asociative)(asociative)(asociative)から応答が生じること、モニタリングが抑制され、催眠やLLMの幻覚などのエラーが発生すること、そして、即時的な手がかり(セラピスト(therapist)やユーザによるプロンプト(promise)など)が安定した知識をオーバーライドする、という3つの原則を考察する。
どちらのシステムも、外部インタプリタが意味を提供するために必要な一貫性のある出力を生成する。
催眠とLLMはまた、人間の行動を定義する意図と所有権を意識せずに、機能的エージェンシー(複雑な、目標指向、文脈に敏感な行動の能力)を例示している。
この区別は、構造的および文脈的ダイナミクスによって支配される自己反射的意識なしに、純粋行動がどのように出現するかを明確にする。
最後に、両方のドメインがスケジューリングの現象を照らす: 反射的認識なしに展開される自動的なゴール指向パターン生成。
ハイプノーシスは、意図が意識的な熟考からどのように分離されるかを理解するための実験モデルを提供し、人工システムの隠された動機づけのダイナミクスに関する洞察を提供する。
これらの並列性を認識することは、信頼できるAIの未来は、人心の複雑で自己制御的なアーキテクチャにインスパイアされたアプローチであるエグゼクティブ監視のメカニズムと、生成的流速を統合するハイブリッドアーキテクチャにあることを示唆している。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Think Socially via Cognitive Reasoning [94.60442643943696]
本稿では,人間の社会的認知をモデルとした認知推論について紹介する。
CogFlowは、この機能をLLMに組み込む完全なフレームワークである。
論文 参考訳(メタデータ) (2025-09-26T16:27:29Z) - Sensorimotor features of self-awareness in multimodal large language models [0.18415777204665024]
自己認識は知的で自律的な行動を支える。
近年のAIの進歩は、マルチモーダル情報を統合するタスクにおいて、人間のようなパフォーマンスを実現する。
我々は,マルチモーダルLLMが感覚運動経験のみで自己認識できるかどうかを考察する。
論文 参考訳(メタデータ) (2025-05-25T17:26:28Z) - Meta-Representational Predictive Coding: Biomimetic Self-Supervised Learning [51.22185316175418]
メタ表現予測符号化(MPC)と呼ばれる新しい予測符号化方式を提案する。
MPCは、並列ストリームにまたがる感覚入力の表現を予測することを学ぶことによって、感覚入力の生成モデルを学ぶ必要性を助長する。
論文 参考訳(メタデータ) (2025-03-22T22:13:14Z) - Analyzing Advanced AI Systems Against Definitions of Life and Consciousness [0.0]
先進的なAIシステムが意識を得たかどうかを調べるための指標をいくつか提案する。
我々は、サボタージュ防御、ミラー自己認識アナログ、メタ認知更新のような免疫を発現する十分に高度なアーキテクチャが、ライフライクまたは意識ライクな特徴に似た重要なしきい値を超えた可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-02-07T15:27:34Z) - Emergence of Self-Awareness in Artificial Systems: A Minimalist Three-Layer Approach to Artificial Consciousness [0.0]
本稿では,自己認識の出現に着目した,人工意識のための最小限の3層モデルを提案する。
脳複製アプローチとは異なり、本質的な要素のみを通して最小限の自己認識を実現することを目的としている。
論文 参考訳(メタデータ) (2025-02-04T10:06:25Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - A Neurocomputational Account of Flexible Goal-directed Cognition and
Consciousness: The Goal-Aligning Representation Internal Manipulation Theory
(GARIM) [0.9669369645900444]
目標指向による表現の操作は、人間の柔軟な振る舞いの鍵となる要素である。
GarIM理論は、意識の主要な理論の重要な側面を、ゴール指向行動の機能的神経計算の枠組みに統合している。
提案は、意識的目標指向行動の意識と臨床的側面に関する実験的研究に影響を及ぼす。
論文 参考訳(メタデータ) (2019-12-31T18:45:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。