論文の概要: The Personalization Trap: How User Memory Alters Emotional Reasoning in LLMs
- arxiv url: http://arxiv.org/abs/2510.09905v1
- Date: Fri, 10 Oct 2025 22:39:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.684154
- Title: The Personalization Trap: How User Memory Alters Emotional Reasoning in LLMs
- Title(参考訳): パーソナライゼーションのトラップ:LLMにおけるユーザ記憶の感情的推論の仕方
- Authors: Xi Fang, Weijie Xu, Yuchong Zhang, Stephanie Eckman, Scott Nickleach, Chandan K. Reddy,
- Abstract要約: ユーザの記憶が大規模言語モデルにおける感情的インテリジェンスに与える影響について検討する。
異なるユーザプロファイルと組み合わせた同一のシナリオが、系統的に異なる感情的解釈を生み出すことが判明した。
パーソナライゼーション用に設計されたシステムは、社会的不平等を必然的に強化する可能性がある。
- 参考スコア(独自算出の注目度): 17.31443971422994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When an AI assistant remembers that Sarah is a single mother working two jobs, does it interpret her stress differently than if she were a wealthy executive? As personalized AI systems increasingly incorporate long-term user memory, understanding how this memory shapes emotional reasoning is critical. We investigate how user memory affects emotional intelligence in large language models (LLMs) by evaluating 15 models on human validated emotional intelligence tests. We find that identical scenarios paired with different user profiles produce systematically divergent emotional interpretations. Across validated user independent emotional scenarios and diverse user profiles, systematic biases emerged in several high-performing LLMs where advantaged profiles received more accurate emotional interpretations. Moreover, LLMs demonstrate significant disparities across demographic factors in emotion understanding and supportive recommendations tasks, indicating that personalization mechanisms can embed social hierarchies into models emotional reasoning. These results highlight a key challenge for memory enhanced AI: systems designed for personalization may inadvertently reinforce social inequalities.
- Abstract(参考訳): AIアシスタントが、サラが1人の母親で2人の仕事をしていることを思い出したとき、それは彼女が金持ちの幹部であるかのように、彼女のストレスを解釈するだろうか?
パーソナライズされたAIシステムは、長期記憶をますます取り入れているため、この記憶が感情的推論をどのように形成するかを理解することが重要である。
本研究では,ユーザメモリが大規模言語モデル(LLM)の感情的インテリジェンスに与える影響について,人間の感情的インテリジェンステストにおいて15のモデルを評価することにより検討した。
異なるユーザプロファイルと組み合わせた同一のシナリオが、系統的に異なる感情的解釈を生み出すことが判明した。
評価されたユーザ独立の感情シナリオと多様なユーザプロファイルを通じて、有利なプロファイルがより正確な感情解釈を受ける高いパフォーマンスのLCMに、体系的なバイアスが出現した。
さらに、LLMは、感情理解と支援的推薦タスクにおいて、人口統計学的要因間で大きな差異を示し、パーソナライズメカニズムが社会階層をモデル感情推論に組み込むことができることを示す。
パーソナライゼーション用に設計されたシステムは、社会的不平等を必然的に強化する可能性がある。
関連論文リスト
- Do Machines Think Emotionally? Cognitive Appraisal Analysis of Large Language Models [13.341709038654198]
我々は,大規模言語モデルで暗黙的に使用される内的認知構造を評価するために,感情に対する認知推論に関する大規模ベンチマークを導入する。
結果と分析結果から,LLMの多種多様な推論パターンが明らかとなった。
論文 参考訳(メタデータ) (2025-08-07T22:19:15Z) - The Emotion-Memory Link: Do Memorability Annotations Matter for Intelligent Systems? [1.960641679592198]
会話場面におけるグループ感情(Pleasure-Arousal)とグループ記憶可能性の関係について検討した。
この結果から, ランダムな確率で期待されるものとは, 影響と記憶可能性の関係を確実に区別できないことが明らかとなった。
論文 参考訳(メタデータ) (2025-07-18T17:06:34Z) - AI with Emotions: Exploring Emotional Expressions in Large Language Models [0.0]
大きな言語モデル(LLM)は、特定の感情状態で質問に答えるエージェントとしてロールプレイを行う。
ラッセルの「サイクムプレックス」モデルは、眠気(覚醒)と快楽(静寂)の軸に沿った感情を特徴づける。
評価の結果, 生成した回答の感情状態は, 仕様と一致していた。
論文 参考訳(メタデータ) (2025-04-20T18:49:25Z) - GPT-4 Emulates Average-Human Emotional Cognition from a Third-Person Perspective [1.642094639107215]
まず最初に、脳神経活動のパターンを見つけるために設計された感情誘発刺激を慎重に構築する。
以上の結果から, GPT-4は特に精度が高いことが示唆された。
GPT-4の解釈は,自己評価よりも,他者の感情に対する人間の判断と密接に一致していることがわかった。
論文 参考訳(メタデータ) (2024-08-11T01:22:09Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。