論文の概要: Decomposing Theory of Mind: How Emotional Processing Mediates ToM Abilities in LLMs
- arxiv url: http://arxiv.org/abs/2511.15895v1
- Date: Wed, 19 Nov 2025 21:56:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.381992
- Title: Decomposing Theory of Mind: How Emotional Processing Mediates ToM Abilities in LLMs
- Title(参考訳): 心の理論を分解する:LLMにおける情緒的処理がM能力にどう影響するか
- Authors: Ivan Chulo, Ananya Joshi,
- Abstract要約: ステアリングとベースラインLLMのアクティベーションを比較することで,言語モデルにおけるToMの分解を提案する。
信念帰属タスク(32.5%から46.7%の精度)のパフォーマンスは、感情内容を処理するアクティベーションによって改善されている。
このことは、LSMにおけるToM能力の成功は、分析的推論ではなく、感情的な理解によって媒介されていることを示唆している。
- 参考スコア(独自算出の注目度): 6.14481021961242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work shows activation steering substantially improves language models' Theory of Mind (ToM) (Bortoletto et al. 2024), yet the mechanisms of what changes occur internally that leads to different outputs remains unclear. We propose decomposing ToM in LLMs by comparing steered versus baseline LLMs' activations using linear probes trained on 45 cognitive actions. We applied Contrastive Activation Addition (CAA) steering to Gemma-3-4B and evaluated it on 1,000 BigToM forward belief scenarios (Gandhi et al. 2023), we find improved performance on belief attribution tasks (32.5\% to 46.7\% accuracy) is mediated by activations processing emotional content : emotion perception (+2.23), emotion valuing (+2.20), while suppressing analytical processes: questioning (-0.78), convergent thinking (-1.59). This suggests that successful ToM abilities in LLMs are mediated by emotional understanding, not analytical reasoning.
- Abstract(参考訳): 最近の研究は、アクティベーションステアリングが言語モデルの理論(ToM)を大幅に改善していることを示している(Bortoletto et al 2024)。
45個の認知行動で訓練された線形プローブを用いて, ステアリングとベースラインLLMの活性化を比較して, ToM を分解する手法を提案する。
コントラッシブ・アクティベーション・アダクション(CAA)をGemma-3-4Bに適用し,1000のBigToMフォワード信念シナリオ(Gandhi et al 2023)で評価したところ,信念帰属タスク(32.5\%から46.7\%の精度)は,感情内容の処理を行うアクティベーション(+2.23),感情評価(+2.20),分析過程の抑制(-0.78),収束思考(-1.59)によって改善されていることがわかった。
このことは、LSMにおけるToM能力の成功は、分析的推論ではなく、感情的な理解によって媒介されていることを示唆している。
関連論文リスト
- Customizing Visual Emotion Evaluation for MLLMs: An Open-vocabulary, Multifaceted, and Scalable Approach [29.502292089901825]
この矛盾は, 既存の評価手法の制約に起因していると論じる。
これらの制約を克服する感情文判断タスクを提案する。
人間の努力を最小限に抑えて感情中心の文を効率的に構築する自動パイプラインを考案する。
論文 参考訳(メタデータ) (2025-09-26T06:30:39Z) - MME-Emotion: A Holistic Evaluation Benchmark for Emotional Intelligence in Multimodal Large Language Models [108.61337743051483]
MME-Emotionは,MLLMの感情的理解と推論能力の両方を評価するシステムベンチマークである。
MME-Emotionには6000以上のキュレートされたビデオクリップとタスク固有の質問回答(QA)ペアが含まれており、8つの感情的なタスクを定式化するための広いシナリオにまたがっている。
マルチエージェントシステムフレームワークを通じて分析された、感情認識と推論のためのハイブリッドメトリクスを備えた総合評価スイートが組み込まれている。
論文 参考訳(メタデータ) (2025-08-11T03:14:55Z) - NegativePrompt: Leveraging Psychology for Large Language Models Enhancement via Negative Emotional Stimuli [21.846500669385193]
大規模言語モデル(LLM)は幅広い応用に不可欠なものとなっている。
LLMには感情的な知性があり、肯定的な感情刺激によってさらに発展することができる。
心理学的原理に基づく新しいアプローチであるNegativePromptを紹介する。
論文 参考訳(メタデータ) (2024-05-05T05:06:07Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。