論文の概要: Fluent but Unfeeling: The Emotional Blind Spots of Language Models
- arxiv url: http://arxiv.org/abs/2509.09593v1
- Date: Thu, 11 Sep 2025 16:31:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.469244
- Title: Fluent but Unfeeling: The Emotional Blind Spots of Language Models
- Title(参考訳): Fluent but Unfeeling: 言語モデルの感情的盲点
- Authors: Bangzhao Shu, Isha Joshi, Melissa Karnaze, Anh C. Pham, Ishita Kakkar, Sindhu Kothe, Arpine Hovasapian, Mai ElSherief,
- Abstract要約: LLM(Large Language Models)が人間の感情と微粒なレベルで一致しているかどうかを評価する上で、重要なギャップが残っている。
Redditコミュニティから収集されたベンチマークデータセットであるExpressを紹介します。
包括的評価フレームワークは、予測された感情条件を検証し、確立された感情理論を用いて、それらを8つの基本的な感情に分解する。
- 参考スコア(独自算出の注目度): 1.248728117157669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The versatility of Large Language Models (LLMs) in natural language understanding has made them increasingly popular in mental health research. While many studies explore LLMs' capabilities in emotion recognition, a critical gap remains in evaluating whether LLMs align with human emotions at a fine-grained level. Existing research typically focuses on classifying emotions into predefined, limited categories, overlooking more nuanced expressions. To address this gap, we introduce EXPRESS, a benchmark dataset curated from Reddit communities featuring 251 fine-grained, self-disclosed emotion labels. Our comprehensive evaluation framework examines predicted emotion terms and decomposes them into eight basic emotions using established emotion theories, enabling a fine-grained comparison. Systematic testing of prevalent LLMs under various prompt settings reveals that accurately predicting emotions that align with human self-disclosed emotions remains challenging. Qualitative analysis further shows that while certain LLMs generate emotion terms consistent with established emotion theories and definitions, they sometimes fail to capture contextual cues as effectively as human self-disclosures. These findings highlight the limitations of LLMs in fine-grained emotion alignment and offer insights for future research aimed at enhancing their contextual understanding.
- Abstract(参考訳): 自然言語理解におけるLarge Language Models(LLM)の汎用性は、メンタルヘルス研究でますます人気を集めている。
感情認識におけるLLMの能力について多くの研究がなされているが、LLMが人間の感情と微粒なレベルで一致しているかどうかを評価する上で重要なギャップが残っている。
既存の研究は、感情を定義済みの限られたカテゴリーに分類することに重点を置いており、よりニュアンスな表現を見下ろしている。
このギャップに対処するため、Redditコミュニティから収集されたベンチマークデータセットEXPRESSを紹介します。
我々の総合評価フレームワークは, 予測された感情条件を検証し, 確立された感情理論を用いて8つの基本感情に分解し, きめ細かい比較を可能にする。
様々なプロンプト設定下でのLLMのシステマティックテストでは、人間の自己開示された感情に沿った感情を正確に予測することは依然として困難であることが示されている。
定性的分析は、あるLLMが確立された感情理論や定義と整合した感情条件を生成する一方で、文脈的手がかりを人間の自己開示と同じくらい効果的に捉えられないことも示している。
これらの知見は、微粒な感情アライメントにおけるLLMの限界を強調し、文脈的理解を高めることを目的とした将来の研究に洞察を与える。
関連論文リスト
- Do Machines Think Emotionally? Cognitive Appraisal Analysis of Large Language Models [13.341709038654198]
我々は,大規模言語モデルで暗黙的に使用される内的認知構造を評価するために,感情に対する認知推論に関する大規模ベンチマークを導入する。
結果と分析結果から,LLMの多種多様な推論パターンが明らかとなった。
論文 参考訳(メタデータ) (2025-08-07T22:19:15Z) - Beyond Context to Cognitive Appraisal: Emotion Reasoning as a Theory of Mind Benchmark for Large Language Models [11.255011967393838]
本研究では,大規模言語モデル(LLM)が文脈情報を用いて,他者の情緒状態をどう判断するかを検討するために,表面レベルの知覚的特徴を超えて前進する。
認知評価理論を基礎としたToM評価データセット1をキュレートし,前向きの推論(文脈から感情へ)と後向きの推論(文脈から感情へ)の両方を評価する。
論文 参考訳(メタデータ) (2025-05-31T01:18:04Z) - AI with Emotions: Exploring Emotional Expressions in Large Language Models [0.0]
大きな言語モデル(LLM)は、特定の感情状態で質問に答えるエージェントとしてロールプレイを行う。
ラッセルの「サイクムプレックス」モデルは、眠気(覚醒)と快楽(静寂)の軸に沿った感情を特徴づける。
評価の結果, 生成した回答の感情状態は, 仕様と一致していた。
論文 参考訳(メタデータ) (2025-04-20T18:49:25Z) - AER-LLM: Ambiguity-aware Emotion Recognition Leveraging Large Language Models [18.482881562645264]
この研究は、あいまいな感情を認識する上でのLarge Language Models(LLM)の可能性を探究する最初のものである。
我々はゼロショットと少数ショットのプロンプトを設計し、過去の対話を曖昧な感情認識のための文脈情報として組み込んだ。
論文 参考訳(メタデータ) (2024-09-26T23:25:21Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。