論文の概要: Indications of Belief-Guided Agency and Meta-Cognitive Monitoring in Large Language Models
- arxiv url: http://arxiv.org/abs/2602.02467v1
- Date: Mon, 02 Feb 2026 18:49:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.379067
- Title: Indications of Belief-Guided Agency and Meta-Cognitive Monitoring in Large Language Models
- Title(参考訳): 大規模言語モデルにおける信念誘導エージェントの表示とメタ認知モニタリング
- Authors: Noam Steinmetz Yalon, Ariel Goldstein, Liad Mudrik, Mor Geva,
- Abstract要約: 我々は、一般的な信念形成と行動選択システムによって導かれる代理店の試験を行うHOT-3と呼ばれる重要な指標を評価する。
本研究は,大規模言語モデルにおけるエージェンシー,信念,メタ認知の出現を調査するための方法論的基礎研究である。
- 参考スコア(独自算出の注目度): 24.183240776362336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid advancements in large language models (LLMs) have sparked the question whether these models possess some form of consciousness. To tackle this challenge, Butlin et al. (2023) introduced a list of indicators for consciousness in artificial systems based on neuroscientific theories. In this work, we evaluate a key indicator from this list, called HOT-3, which tests for agency guided by a general belief-formation and action selection system that updates beliefs based on meta-cognitive monitoring. We view beliefs as representations in the model's latent space that emerge in response to a given input, and introduce a metric to quantify their dominance during generation. Analyzing the dynamics between competing beliefs across models and tasks reveals three key findings: (1) external manipulations systematically modulate internal belief formation, (2) belief formation causally drives the model's action selection, and (3) models can monitor and report their own belief states. Together, these results provide empirical support for the existence of belief-guided agency and meta-cognitive monitoring in LLMs. More broadly, our work lays methodological groundwork for investigating the emergence of agency, beliefs, and meta-cognition in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩は、これらのモデルがある種の意識を持っているかどうかという疑問を引き起こしている。
この課題に取り組むために、Butlin et al (2023) は神経科学理論に基づく人工システムにおける意識の指標のリストを導入した。
本研究では,このリストから,メタ認知モニタリングに基づいて信念を更新する一般的な信念形成・行動選択システムによって案内されるエージェントを対象としたHOT-3という重要な指標を評価する。
我々は信念を、与えられた入力に応答して出現するモデルの潜在空間における表現として捉え、世代間の支配を定量化する計量を導入する。
モデルとタスク間の競合する信念のダイナミクスを分析することは、(1)外部操作が内部の信念の形成を体系的に調節し、(2)信念の形成がモデルの行動選択を因果的に駆動し、(3)モデルが自身の信念状態を監視して報告する、という3つの重要な発見を示す。
これらの結果は,LLMにおける信念誘導エージェントの存在とメタ認知モニタリングの実証的支援を提供する。
より広範に、我々の研究は、LSMにおけるエージェンシーの出現、信念、メタ認知を調査するための方法論的な基礎を定めている。
関連論文リスト
- Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - Towards a Mechanistic Understanding of Large Reasoning Models: A Survey of Training, Inference, and Failures [72.27391760972445]
大きな推論モデル(LRM)は推論能力を新しい高さに押し上げた。
本稿では,最近の研究成果を,(1)学習力学,(2)推論機構,(3)意図しない行動の3つにまとめる。
論文 参考訳(メタデータ) (2026-01-11T08:48:46Z) - Investigating The Functional Roles of Attention Heads in Vision Language Models: Evidence for Reasoning Modules [76.21320451720764]
複雑なマルチモーダル質問をステップバイステップのサブクエストに分解するデータセットであるCogVisionを紹介した。
探索に基づく手法を用いて,これらの機能に特化して機能的頭部として特徴付けるアテンションヘッドを同定する。
分析の結果、これらの機能ヘッドは普遍的に疎結合であり、機能間の数や分布が異なり、相互作用や階層的な組織を仲介することがわかった。
論文 参考訳(メタデータ) (2025-12-11T05:42:53Z) - Beyond Description: Cognitively Benchmarking Fine-Grained Action for Embodied Agents [52.14392337070763]
CFG-Benchは、きめ細かな動作インテリジェンスを体系的に評価する新しいベンチマークである。
CFG-Benchは、1,368のキュレートされたビデオと19,562の3つのモダリティからなる質問応答ペアからなる。
CFG-Benchに関する包括的評価から,MLLMの先導者は,物理的相互作用の詳細な指示を生成するのに苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2025-11-24T02:02:29Z) - Cognitive Foundations for Reasoning and Their Manifestation in LLMs [63.12951576410617]
大規模言語モデル(LLM)は複雑な問題を解くが、単純な変種では失敗し、人間の推論と根本的に異なるメカニズムによって正しい出力を達成することを示唆している。
我々は認知科学研究を、推論不変量、メタ認知制御、推論と知識の組織化のための表現、変換操作にまたがる28の認知要素の分類学に合成する。
複雑な問題に対して66.7%の性能向上を図り、成功構造を自動的に把握するテストタイム推論ガイダンスを開発した。
論文 参考訳(メタデータ) (2025-11-20T18:59:00Z) - What Do LLM Agents Do When Left Alone? Evidence of Spontaneous Meta-Cognitive Patterns [27.126691338850254]
外部に課されたタスクを欠いた大規模言語モデル(LLM)エージェントの動作を研究するアーキテクチャを提案する。
永続的なメモリと自己フィードバックを使用して、継続的な理由と行動のフレームワークは、持続的な自律的な操作を可能にします。
論文 参考訳(メタデータ) (2025-09-25T14:29:49Z) - Disagreements in Reasoning: How a Model's Thinking Process Dictates Persuasion in Multi-Agent Systems [49.69773210844221]
本稿では,説得力はモデルスケールの関数である,という一般的な仮説に挑戦する。
一連のマルチエージェントの説得実験を通じて、パーサーション・デュナリティ(Persuasion Duality)と呼ばれる基本的なトレードオフを明らかにする。
以上の結果から, LRMの推理過程は説得に対する抵抗性が大きく, 当初の信念をより堅固に維持していることが明らかとなった。
論文 参考訳(メタデータ) (2025-09-25T12:03:10Z) - Reflection-Bench: Evaluating Epistemic Agency in Large Language Models [10.801745760525838]
疫学エージェンシーは動的環境に関する信念を柔軟に構築し、適応し、監視する能力である。
リフレクション・ベンチ(Reflection-Bench)は,データ漏洩の長期的関連性と最小化を伴う7つのタスクからなるベンチマークである。
本研究は, コア認知機能の向上, クロスファンクショナルコーディネートの改善, 適応処理機構の開発など, 有望な研究の方向性を示唆する。
論文 参考訳(メタデータ) (2024-10-21T17:59:50Z) - Language Models Represent Beliefs of Self and Others [14.630775330165529]
本稿では,言語モデルのニューラルアクティベーションを通じて,様々なエージェントの観点から,信念の状態を線形に復号化できることを述べる。
我々は,モデルにおけるToMパフォーマンスの劇的な変化を観察し,社会的推論プロセスにおけるそれらの重要な役割を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-28T17:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。