論文の概要: How Emotion Shapes the Behavior of LLMs and Agents: A Mechanistic Study
- arxiv url: http://arxiv.org/abs/2604.00005v1
- Date: Mon, 09 Mar 2026 12:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:13.180189
- Title: How Emotion Shapes the Behavior of LLMs and Agents: A Mechanistic Study
- Title(参考訳): LLMの挙動とエージェントの感情形成 : 機械的考察
- Authors: Moran Sun, Tianlin Li, Yuwei Zheng, Zhenhong Zhou, Aishan Liu, Xianglong Liu, Yang Liu,
- Abstract要約: 感情信号が大規模言語モデル(LLM)とエージェントの動作を形作ることができるかどうかを検討する。
既存の感情認識研究は、主に感情を表面的なスタイルファクターまたは知覚的ターゲットとして扱う。
直接表現レベルの介入を可能にする解釈可能な感情ステアリングフレームワークであるE-STEERを提案する。
- 参考スコア(独自算出の注目度): 33.5007842598689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion plays an important role in human cognition and performance. Motivated by this, we investigate whether analogous emotional signals can shape the behavior of large language models (LLMs) and agents. Existing emotion-aware studies mainly treat emotion as a surface-level style factor or a perception target, overlooking its mechanistic role in task processing. To address this limitation, we propose E-STEER, an interpretable emotion steering framework that enables direct representation-level intervention in LLMs and agents. It embeds emotion as a structured, controllable variable in hidden states, and with it, we examine the impact of emotion on objective reasoning, subjective generation, safety, and multi-step agent behaviors. The results reveal non-monotonic emotion-behavior relations consistent with established psychological theories, and show that specific emotions not only enhance LLM capability but also improve safety, and systematically shape multi-step agent behaviors.
- Abstract(参考訳): 感情は人間の認知とパフォーマンスにおいて重要な役割を果たす。
そこで本研究では,大きな言語モデル(LLM)とエージェントの振る舞いを,類似の感情信号が形成できるかどうかを考察する。
既存の感情認識研究は、主に表面レベルスタイルファクターまたは知覚目標として感情を扱い、タスク処理におけるその機械的役割を見越す。
この制限に対処するために,LLMやエージェントへの直接的表現レベルの介入を可能にする解釈可能な感情ステアリングフレームワークであるE-STEERを提案する。
感情は隠れた状態に構造化され制御可能な変数として組み込まれ、それとともに、主観的推論、主観的生成、安全性、多段階エージェントの行動に対する感情の影響を調べる。
その結果、確立された心理学理論と整合した非単調な感情-行動関係が明らかとなり、特定の感情がLSM能力を高めるだけでなく、安全性も向上し、多段階のエージェントの動作を体系的に形作ることを示した。
関連論文リスト
- Do LLMs "Feel"? Emotion Circuits Discovery and Control [54.57583855608979]
本研究では、感情表現を引き起こす内部メカニズムと、生成したテキストにおける感情の制御について検討する。
これは、大きな言語モデルで感情回路を発見し、検証する最初の体系的な研究である。
論文 参考訳(メタデータ) (2025-10-13T12:24:24Z) - AI with Emotions: Exploring Emotional Expressions in Large Language Models [0.0]
大きな言語モデル(LLM)は、特定の感情状態で質問に答えるエージェントとしてロールプレイを行う。
ラッセルの「サイクムプレックス」モデルは、眠気(覚醒)と快楽(静寂)の軸に沿った感情を特徴づける。
評価の結果, 生成した回答の感情状態は, 仕様と一致していた。
論文 参考訳(メタデータ) (2025-04-20T18:49:25Z) - Mechanistic Interpretability of Emotion Inference in Large Language Models [16.42503362001602]
感情表現は大規模言語モデルにおいて特定の領域に機能的に局所化されていることを示す。
我々は,環境刺激の評価から感情が出現することを示すための認知的評価理論を導いた。
この研究は、因果的に介入し、感情的なテキスト生成を正確に形作る新しい方法を強調している。
論文 参考訳(メタデータ) (2025-02-08T08:11:37Z) - From Rational Answers to Emotional Resonance: The Role of Controllable Emotion Generation in Language Models [16.350658746140788]
大規模言語モデル(LLM)は、一貫性があり、制御可能で、文脈的に適切な方法で感情を表現するのに苦労する。
感情ベクトル(EV)に基づく制御可能な感情生成フレームワークを提案する。
本手法は、追加のトレーニングやアーキテクチャの変更なしに、感情のトーンを微調整し、連続的に調整することができる。
論文 参考訳(メタデータ) (2025-02-06T13:38:57Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。