論文の概要: TimeToM: Temporal Space is the Key to Unlocking the Door of Large Language Models' Theory-of-Mind
- arxiv url: http://arxiv.org/abs/2407.01455v1
- Date: Mon, 1 Jul 2024 16:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 20:41:15.458491
- Title: TimeToM: Temporal Space is the Key to Unlocking the Door of Large Language Models' Theory-of-Mind
- Title(参考訳): TimeToM: 時空間は大規模言語モデルのドアをアンロックする鍵となる
- Authors: Guiyang Hou, Wenqi Zhang, Yongliang Shen, Linjuan Wu, Weiming Lu,
- Abstract要約: 時間空間を構築し,それを基盤として大規模言語モデルのToM能力を向上させるTimeToMを提案する。
本研究では,時間空間における文字間の信念伝達を考慮し,文字の高次信念を他の文字の1次信念に変換する新しいツール・ビリーフ・ソルバを設計する。
- 参考スコア(独自算出の注目度): 18.258876784733733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Theory of Mind (ToM)-the cognitive ability to reason about mental states of ourselves and others, is the foundation of social interaction. Although ToM comes naturally to humans, it poses a significant challenge to even the most advanced Large Language Models (LLMs). Due to the complex logical chains in ToM reasoning, especially in higher-order ToM questions, simply utilizing reasoning methods like Chain of Thought (CoT) will not improve the ToM capabilities of LLMs. We present TimeToM, which constructs a temporal space and uses it as the foundation to improve the ToM capabilities of LLMs in multiple scenarios. Specifically, within the temporal space, we construct Temporal Belief State Chain (TBSC) for each character and inspired by the cognition perspective of the social world model, we divide TBSC into self-world beliefs and social world beliefs, aligning with first-order ToM (first-order beliefs) and higher-order ToM (higher-order beliefs) questions, respectively. Moreover, we design a novel tool-belief solver that, by considering belief communication between characters in temporal space, can transform a character's higher-order beliefs into another character's first-order beliefs under belief communication period. Experimental results indicate that TimeToM can dramatically improve the reasoning performance of LLMs on ToM questions while taking a big step towards coherent and robust ToM reasoning.
- Abstract(参考訳): 心の理論 (ToM) - 自己や他者の精神状態について考える認知能力は、社会的相互作用の基礎である。
ToMは自然に人間にやってくるが、最も先進的なLarge Language Model(LLM)でさえも大きな課題となる。
ToM推論の複雑な論理的連鎖、特に高次のToM問題のため、単にChain of Thought (CoT)のような推論手法を利用するだけではLLMのToM能力は向上しない。
時間空間を構築し,複数のシナリオにおいてLLMのToM機能を改善する基盤として利用するTimeToMを提案する。
具体的には、時間空間内では、各文字に対して時間的信念状態連鎖(TBSC)を構築し、社会的世界モデルの認知的視点から着想を得た上で、TBSCを自己世界的信念と社会的世界的信念に分割し、それぞれ一階のToM(一階の信念)と高階のToM(高階の信念)の問いに合わせる。
さらに,時間空間における文字間の信頼コミュニケーションを考慮し,文字の高次信念を他の文字の1次信念に変換する新しいツール・ビリーフ・ソルバを設計する。
実験結果から, TimeToM はToM 質問に対する LLM の推論性能を劇的に向上し, 一貫性と堅牢性を持った ToM 推論に向けて大きな一歩を踏み出した。
関連論文リスト
- Perceptions to Beliefs: Exploring Precursory Inferences for Theory of Mind in Large Language Models [51.91448005607405]
ToMi と FANToM に文字認識を付加することにより,ヒト ToM 前駆体の評価を行った。
本稿では,LLMの強い知覚推定能力を利用した新しいToM手法であるPercepToMについて述べる。
論文 参考訳(メタデータ) (2024-07-08T14:58:29Z) - Through the Theory of Mind's Eye: Reading Minds with Multimodal Video Large Language Models [52.894048516550065]
ビデオとテキストを用いたマルチモーダルToM推論のためのパイプラインを開発する。
また、ToM質問に応答するキーフレームを検索することで、明示的なToM推論を可能にする。
論文 参考訳(メタデータ) (2024-06-19T18:24:31Z) - Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? [70.19200858203388]
時間的推論は、世界を理解するための大きな言語モデルの基本である。
CoTempQAは4つの時間的シナリオを含むベンチマークである。
実験の結果,LLMの性能と人間レベルの推論との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-06-13T12:56:21Z) - Zero, Finite, and Infinite Belief History of Theory of Mind Reasoning in Large Language Models [5.455744338342196]
大規模言語モデル(LLM)は、最近、心の理論(ToM)能力の約束と出現を見せている。
我々は、ゼロ、有限、無限信仰史によるToM推論という新しい概念、分類学、枠組みを提案する。
我々はこのゲームで6つのLDMを評価し、Zero Belief HistoryでのパフォーマンスはFinite Belief Historyより一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2024-06-07T10:04:39Z) - ToM-LM: Delegating Theory of Mind Reasoning to External Symbolic Executors in Large Language Models [5.455744338342196]
心の理論(りょうせい、英: Theory of Mind、ToM)とは、個人が心の状態を他人に当てはめる能力のこと。
大きな言語モデル(LLM)は、ToMの能力といくつかの約束を示しているが、それでも複雑なToM推論に苦戦している。
論文 参考訳(メタデータ) (2024-04-23T20:59:03Z) - Mind's Eye of LLMs: Visualization-of-Thought Elicits Spatial Reasoning in Large Language Models [71.93366651585275]
大規模言語モデル(LLM)は、言語理解と様々な推論タスクにおいて印象的な性能を示した。
本稿では,LLMの空間的推論を視覚的に行うために,VoT(Visual-of-Thought)を提案する。
VoTはLLMの空間的推論能力を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-04T17:45:08Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - HI-TOM: A Benchmark for Evaluating Higher-Order Theory of Mind Reasoning
in Large Language Models [31.831042765744204]
心の理論(りょうがく、英: Theory of Mind、ToM)とは、自己と他者の精神状態について考える能力である。
本稿では,高次マインド理論のベンチマークであるHI-TOMを紹介する。
各種Large Language Models (LLM) を用いた実験により,高次ToMタスクの性能低下が示唆された。
論文 参考訳(メタデータ) (2023-10-25T16:41:15Z) - FANToM: A Benchmark for Stress-testing Machine Theory of Mind in
Interactions [94.61530480991627]
現在、マインド評価の理論は、本質的に相互作用性に欠ける受動的物語を用いたテストモデルに焦点を当てている。
本稿では,情報非対称な会話文脈におけるToMのストレステストを目的とした新しいベンチマークであるFANToMを紹介する。
論文 参考訳(メタデータ) (2023-10-24T00:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。