論文の概要: Dynamic Theory of Mind as a Temporal Memory Problem: Evidence from Large Language Models
- arxiv url: http://arxiv.org/abs/2603.14646v1
- Date: Sun, 15 Mar 2026 22:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.938283
- Title: Dynamic Theory of Mind as a Temporal Memory Problem: Evidence from Large Language Models
- Title(参考訳): 時間記憶問題としての心の動的理論--大規模言語モデルによるエビデンス
- Authors: Thuy Ngoc Nguyen, Duy Nhat Phan, Cleotilde Gonzalez,
- Abstract要約: 心の理論 (ToM) は社会的認知と人間とAIの相互作用の中心である。
大規模言語モデル(LLM)はToMの理解と表現に役立つ。
我々はDTOM-Trackを導入し、制御されたマルチターン会話における時間的信念推論について検討する。
- 参考スコア(独自算出の注目度): 0.8666275811953881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Theory of Mind (ToM) is central to social cognition and human-AI interaction, and Large Language Models (LLMs) have been used to help understand and represent ToM. However, most evaluations treat ToM as a static judgment at a single moment, primarily relying on tests of false beliefs. This overlooks a key dynamic dimension of ToM: the ability to represent, update, and retrieve others' beliefs over time. We investigate dynamic ToM as a temporally extended representational memory problem, asking whether LLMs can track belief trajectories across interactions rather than only inferring current beliefs. We introduce DToM-Track, an evaluation framework to investigate temporal belief reasoning in controlled multiturn conversations, testing the recall of beliefs held prior to an update, the inference of current beliefs, and the detection of belief change. Using LLMs as computational probes, we find a consistent asymmetry: models reliably infer an agent's current belief but struggle to maintain and retrieve prior belief states once updates occur. This pattern persists across LLM model families and scales, and is consistent with recency bias and interference effects well documented in cognitive science. These results suggest that tracking belief trajectories over time poses a distinct challenge beyond classical false-belief reasoning. By framing ToM as a problem of temporal representation and retrieval, this work connects ToM to core cognitive mechanisms of memory and interference and exposes the implications for LLM models of social reasoning in extended human-AI interactions.
- Abstract(参考訳): The Theory of Mind (ToM) is central to social cognition and human-AI interaction, and Large Language Models (LLMs) been been used to understand and representation ToM。
しかし、ほとんどの評価は、ToMを1つの瞬間における静的な判断として扱い、主に誤った信念のテストに依存している。
これはToMの重要なダイナミックな次元、すなわち時間の経過とともに他人の信念を表現し、更新し、取り出す能力を見落としている。
時間的に拡張された表現記憶問題としての動的ToMについて検討し、LLMが現在の信念を推測するだけでなく、相互作用間の信念軌跡を追跡できるかどうかを問う。
DToM-Trackは、制御されたマルチターン会話における時間的信念の推論、更新前の信念のリコール、現在の信念の推測、信念の変化の検出をテストするための評価フレームワークである。
モデルはエージェントの現在の信念を確実に推測するが、更新が生じたら、以前の信念状態の維持と回収に苦労する。
このパターンはLLMモデルファミリやスケールにまたがって持続し、認知科学でよく記録された電流バイアスや干渉効果と一致している。
これらの結果は、信念の軌跡を時間とともに追跡することは、古典的な虚偽の推論以上の難題をもたらすことを示唆している。
ToMを時間的表現と検索の問題とすることで、ToMを記憶と干渉のコア認知メカニズムと結びつけ、人間とAIの相互作用の拡張における社会的推論のLLMモデルへの影響を明らかにする。
関連論文リスト
- Beyond Words: Evaluating and Bridging Epistemic Divergence in User-Agent Interaction via Theory of Mind [8.740788873949471]
大規模言語モデル(LLM)は急速に発展し、汎用タスクと専門タスクの両方に広く応用されている。
意図や指示が不正確に伝達されるとき、彼らは依然として、真のユーザニーズを理解し、応答するのに苦労しています。
論文 参考訳(メタデータ) (2026-02-14T16:01:59Z) - DEL-ToM: Inference-Time Scaling for Theory-of-Mind Reasoning via Dynamic Epistemic Logic [34.90622503586192]
理論・オブ・ミンド(ToM)タスクは大きな言語モデルに固有の課題をもたらす。
推論時間スケーリングによる検証可能なToM推論を改善するフレームワークであるDEL-ToMを提案する。
論文 参考訳(メタデータ) (2025-05-22T23:52:56Z) - EnigmaToM: Improve LLMs' Theory-of-Mind Reasoning Capabilities with Neural Knowledge Base of Entity States [15.557449564031975]
理論-オブ-ミンド(ToM)は人間の相互作用の基本であるが、Large Language Models (LLMs) の課題は残る。
Enigma(エニグマ)の神経知識ベースを統合することでToM推論を強化する新しいニューロシンボリックフレームワークであるEnigmaToMを提案する。
ToMi, HiToM, FANToM ベンチマークによる実験結果から, EnigmaToM は様々な大きさの LLM における ToM 推論を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-03-05T10:13:05Z) - Perceptions to Beliefs: Exploring Precursory Inferences for Theory of Mind in Large Language Models [51.91448005607405]
ToMi と FANToM に文字認識を付加することにより,ヒト ToM 前駆体の評価を行った。
本稿では,LLMの強い知覚推定能力を利用した新しいToM手法であるPercepToMについて述べる。
論文 参考訳(メタデータ) (2024-07-08T14:58:29Z) - TimeToM: Temporal Space is the Key to Unlocking the Door of Large Language Models' Theory-of-Mind [18.258876784733733]
時間空間を構築し,それを基盤として大規模言語モデルのToM能力を向上させるTimeToMを提案する。
本研究では,時間空間における文字間の信念伝達を考慮し,文字の高次信念を他の文字の1次信念に変換する新しいツール・ビリーフ・ソルバを設計する。
論文 参考訳(メタデータ) (2024-07-01T16:50:49Z) - FANToM: A Benchmark for Stress-testing Machine Theory of Mind in
Interactions [94.61530480991627]
現在、マインド評価の理論は、本質的に相互作用性に欠ける受動的物語を用いたテストモデルに焦点を当てている。
本稿では,情報非対称な会話文脈におけるToMのストレステストを目的とした新しいベンチマークであるFANToMを紹介する。
論文 参考訳(メタデータ) (2023-10-24T00:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。