論文の概要: Emotion is Not Just a Label: Latent Emotional Factors in LLM Processing
- arxiv url: http://arxiv.org/abs/2603.09205v1
- Date: Tue, 10 Mar 2026 05:23:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.052744
- Title: Emotion is Not Just a Label: Latent Emotional Factors in LLM Processing
- Title(参考訳): 感情は単にラベルではない - LLM処理における潜在感情要因
- Authors: Benjamin Reichman, Adar Avasian, Samuel Webster, Larry Heck,
- Abstract要約: 私たちは感情を、モデルがどのようにテキストに従属し、推論するかを形作る潜在要因として研究しています。
我々は、トランスモデルにおいて、感情的なトーンが注意構造を体系的にどう変化させるかを分析する。
トレーニング中に感情条件付き表現の漂流を制限する感情正規化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.733799057798266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are routinely deployed on text that varies widely in emotional tone, yet their reasoning behavior is typically evaluated without accounting for emotion as a source of representational variation. Prior work has largely treated emotion as a prediction target, for example in sentiment analysis or emotion classification. In contrast, we study emotion as a latent factor that shapes how models attend to and reason over text. We analyze how emotional tone systematically alters attention geometry in transformer models, showing that metrics such as locality, center-of-mass distance, and entropy vary across emotions and correlate with downstream question-answering performance. To facilitate controlled study of these effects, we introduce Affect-Uniform ReAding QA (AURA-QA), a question-answering dataset with emotionally balanced, human-authored context passages. Finally, an emotional regularization framework is proposed that constrains emotion-conditioned representational drift during training. Experiments across multiple QA benchmarks demonstrate that this approach improves reading comprehension in both emotionally-varying and non-emotionally varying datasets, yielding consistent gains under distribution shift and in-domain improvements on several benchmarks.
- Abstract(参考訳): 大規模言語モデルは感情的なトーンで大きく変化するテキスト上に定期的に展開されるが、その推論行動は感情を表現的変化の源として考慮せずに一般的に評価される。
以前の研究は、感情分析や感情分類などにおいて、感情を予測対象として主に扱ってきた。
対照的に、私たちは感情を、モデルがどのようにテキストに参画し、推論するかを形作る潜在要因として研究しています。
本研究では, 変圧器モデルにおいて, 感情のトーンが注意形状を体系的にどう変化させるかを分析し, 局所性, 中心質量距離, エントロピーなどの指標が感情によって異なることを示し, 下流の質問応答性能と相関することを示した。
これらの効果の制御を容易にするために,感情的バランスの取れた人間によるコンテキストパスを用いた質問応答データセットであるAffect-Uniform ReAding QA(AURA-QA)を紹介した。
最後に、トレーニング中に感情条件付き表現ドリフトを制約する感情正規化フレームワークを提案する。
複数のQAベンチマークでの実験では、このアプローチが感情的に変化し、非感情的に変化するデータセットの読解理解を改善し、分散シフトの下で一貫した利得と複数のベンチマークでのドメイン内改善をもたらすことが示されている。
関連論文リスト
- Detecting Emotional Dynamic Trajectories: An Evaluation Framework for Emotional Support in Language Models [6.810484095299127]
感情支援は人間とAIの相互作用における中核的な能力であり、心理学的カウンセリング、ロールプレイ、コンパニオンシップなどの応用がある。
大規模言語モデル(LLM)の既存の評価は、しばしば短く静的な対話に依存し、感情的サポートの動的で長期的な性質を捉えない。
本フレームワークは,328の情緒的文脈と1,152の外乱イベントからなる大規模ベンチマークを構築し,進化する対話シナリオ下での現実的な情緒的変化をシミュレートする。
論文 参考訳(メタデータ) (2025-11-12T05:47:28Z) - Fine-Grained Emotion Recognition via In-Context Learning [24.79387634284384]
きめ細かい感情認識は、推論と意思決定プロセスを通じて、クエリの感情タイプを特定することを目的としている。
最近の手法では、インコンテキスト学習(ICL)が使われ、意味論的に類似した例を通してクエリの表現が強化されている。
本稿では,プロトタイプ理論による微粒な感情認識における意思決定について検討する。
論文 参考訳(メタデータ) (2025-10-08T03:17:09Z) - Mechanistic Interpretability of Emotion Inference in Large Language Models [16.42503362001602]
感情表現は大規模言語モデルにおいて特定の領域に機能的に局所化されていることを示す。
我々は,環境刺激の評価から感情が出現することを示すための認知的評価理論を導いた。
この研究は、因果的に介入し、感情的なテキスト生成を正確に形作る新しい方法を強調している。
論文 参考訳(メタデータ) (2025-02-08T08:11:37Z) - Improved Text Emotion Prediction Using Combined Valence and Arousal Ordinal Classification [37.823815777259036]
テキストから感情を分類する手法を導入し,様々な感情の相違点と相違点を認識・区別する。
提案手法は感情予測において高い精度を保ちながら,誤分類の場合の誤りの程度を著しく低減する。
論文 参考訳(メタデータ) (2024-04-02T10:06:30Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Implicit Design Choices and Their Impact on Emotion Recognition Model
Development and Evaluation [5.534160116442057]
感情の主観性は、正確で堅牢な計算モデルを開発する上で大きな課題を生じさせる。
この論文は、多様なデータセットの収集から始まる感情認識の批判的な側面を調べる。
非表現的トレーニングデータの課題に対処するため、この研究はマルチモーダルストレス感情データセットを収集する。
論文 参考訳(メタデータ) (2023-09-06T02:45:42Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。