論文の概要: Decoding Emotion in the Deep: A Systematic Study of How LLMs Represent, Retain, and Express Emotion
- arxiv url: http://arxiv.org/abs/2510.04064v1
- Date: Sun, 05 Oct 2025 06:53:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.435495
- Title: Decoding Emotion in the Deep: A Systematic Study of How LLMs Represent, Retain, and Express Emotion
- Title(参考訳): 深部における感情の復号:LLMの表現・保持・表現の体系的研究
- Authors: Jingxiang Zhang, Lujia Zhong,
- Abstract要約: 大きな言語モデル(LLM)は、人間の感情のニュアンスをナビゲートすることがますます期待されている。
本稿では、現代のLLMにおける潜在感情表現について、どのようにして、どこで、どのくらいの感情が神経アーキテクチャにエンコードされているのかを問うことによって検討する。
約40万発のRedditコーパスを,分類,書き換え,合成生成の多段階的プロセスを通じて,7つの基本的な感情のバランスをとりながら導入した。
このデータセットを使用して、パラメータを変更することなく、軽量な"プローブ"を使用して、様々なQwen3およびLLaMAモデルの隠れレイヤから情報を読み取る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly expected to navigate the nuances of human emotion. While research confirms that LLMs can simulate emotional intelligence, their internal emotional mechanisms remain largely unexplored. This paper investigates the latent emotional representations within modern LLMs by asking: how, where, and for how long is emotion encoded in their neural architecture? To address this, we introduce a novel, large-scale Reddit corpus of approximately 400,000 utterances, balanced across seven basic emotions through a multi-stage process of classification, rewriting, and synthetic generation. Using this dataset, we employ lightweight "probes" to read out information from the hidden layers of various Qwen3 and LLaMA models without altering their parameters. Our findings reveal that LLMs develop a surprisingly well-defined internal geometry of emotion, which sharpens with model scale and significantly outperforms zero-shot prompting. We demonstrate that this emotional signal is not a final-layer phenomenon but emerges early and peaks mid-network. Furthermore, the internal states are both malleable (they can be influenced by simple system prompts) and persistent, as the initial emotional tone remains detectable for hundreds of subsequent tokens. We contribute our dataset, an open-source probing toolkit, and a detailed map of the emotional landscape within LLMs, offering crucial insights for developing more transparent and aligned AI systems. The code and dataset are open-sourced.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間の感情のニュアンスをナビゲートすることがますます期待されている。
LLMが感情的な知性をシミュレートできることは研究によって確認されているが、その内部の感情的メカニズムはほとんど解明されていない。
本稿では、現代のLLMにおける潜在感情表現について、どのようにして、どこで、どのくらいの感情が神経アーキテクチャにエンコードされているのかを問うことによって検討する。
これを解決するために、私たちは、分類、書き直し、合成生成の多段階プロセスを通じて、7つの基本的な感情間でバランスをとる、約40,000発のRedditコーパスを導入しました。
このデータセットを使用して、パラメータを変更することなく、軽量な"プローブ"を使用して、様々なQwen3およびLLaMAモデルの隠れレイヤから情報を読み取る。
以上の結果から,LLMはモデルスケールで鋭くなり,ゼロショットプロンプトよりも著しく優れる,驚くほど明確に定義された感情の内的幾何学を発達させることが明らかとなった。
この感情信号は最終層現象ではなく,早期に出現し,ネットワークの途中でピークに達することを実証する。
さらに、内部状態は可鍛性(単純なシステムプロンプトの影響を受けやすい)と持続性の両方があり、最初の感情的トーンはその後の数百のトークンに対して検出可能である。
当社のデータセット、オープンソースのプローブツールキット、LLM内の感情的な景観の詳細なマップなどを提供し、より透明性と整合性のあるAIシステムを開発する上で重要な洞察を提供しています。
コードとデータセットはオープンソースである。
関連論文リスト
- Fluent but Unfeeling: The Emotional Blind Spots of Language Models [1.248728117157669]
LLM(Large Language Models)が人間の感情と微粒なレベルで一致しているかどうかを評価する上で、重要なギャップが残っている。
Redditコミュニティから収集されたベンチマークデータセットであるExpressを紹介します。
包括的評価フレームワークは、予測された感情条件を検証し、確立された感情理論を用いて、それらを8つの基本的な感情に分解する。
論文 参考訳(メタデータ) (2025-09-11T16:31:13Z) - MME-Emotion: A Holistic Evaluation Benchmark for Emotional Intelligence in Multimodal Large Language Models [108.61337743051483]
MME-Emotionは,MLLMの感情的理解と推論能力の両方を評価するシステムベンチマークである。
MME-Emotionには6000以上のキュレートされたビデオクリップとタスク固有の質問回答(QA)ペアが含まれており、8つの感情的なタスクを定式化するための広いシナリオにまたがっている。
マルチエージェントシステムフレームワークを通じて分析された、感情認識と推論のためのハイブリッドメトリクスを備えた総合評価スイートが組み込まれている。
論文 参考訳(メタデータ) (2025-08-11T03:14:55Z) - AI with Emotions: Exploring Emotional Expressions in Large Language Models [0.0]
大きな言語モデル(LLM)は、特定の感情状態で質問に答えるエージェントとしてロールプレイを行う。
ラッセルの「サイクムプレックス」モデルは、眠気(覚醒)と快楽(静寂)の軸に沿った感情を特徴づける。
評価の結果, 生成した回答の感情状態は, 仕様と一致していた。
論文 参考訳(メタデータ) (2025-04-20T18:49:25Z) - How Deep is Love in LLMs' Hearts? Exploring Semantic Size in Human-like Cognition [75.11808682808065]
本研究では,大言語モデル (LLM) が意味的サイズを理解する上で類似した傾向を示すかどうかを検討する。
以上の結果から,マルチモーダルトレーニングはLLMにとって人間的な理解を深める上で不可欠であることが示唆された。
最後に,LLMが実世界のWebショッピングシナリオにおいて,より大きなセマンティックサイズを持つ注目の見出しに影響されているかを検討する。
論文 参考訳(メタデータ) (2025-03-01T03:35:56Z) - EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。