論文の概要: Heartificial Intelligence: Exploring Empathy in Language Models
- arxiv url: http://arxiv.org/abs/2508.08271v1
- Date: Wed, 30 Jul 2025 14:09:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-17 22:58:06.154715
- Title: Heartificial Intelligence: Exploring Empathy in Language Models
- Title(参考訳): 心的知性:言語モデルにおける共感を探る
- Authors: Victoria Williams, Benjamin Rosman,
- Abstract要約: 小さな言語モデルと大きな言語モデルは、認知的共感タスクにおいて人間よりも一貫して優れていた。
認知的強みにもかかわらず、小・大言語モデルともに、人間に比べて感情的共感が有意に低かった。
- 参考スコア(独自算出の注目度): 8.517406772939292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have become increasingly common, used by millions of people worldwide in both professional and personal contexts. As these models continue to advance, they are frequently serving as virtual assistants and companions. In human interactions, effective communication typically involves two types of empathy: cognitive empathy (understanding others' thoughts and emotions) and affective empathy (emotionally sharing others' feelings). In this study, we investigated both cognitive and affective empathy across several small (SLMs) and large (LLMs) language models using standardized psychological tests. Our results revealed that LLMs consistently outperformed humans - including psychology students - on cognitive empathy tasks. However, despite their cognitive strengths, both small and large language models showed significantly lower affective empathy compared to human participants. These findings highlight rapid advancements in language models' ability to simulate cognitive empathy, suggesting strong potential for providing effective virtual companionship and personalized emotional support. Additionally, their high cognitive yet lower affective empathy allows objective and consistent emotional support without running the risk of emotional fatigue or bias.
- Abstract(参考訳): 大規模言語モデルはますます一般的になってきており、世界中の何百万人もの人々が専門的・個人的文脈で使っている。
これらのモデルが進歩を続けるにつれて、仮想アシスタントやコンパニオンとして頻繁に機能している。
人間の相互作用において、効果的なコミュニケーションは、認知的共感(他人の考えや感情を理解する)と感情的共感(他人の感情を共有する)の2つのタイプを含む。
本研究では,複数の小言語(SLM)と大言語(LLM)にまたがる認知的共感と情緒的共感を,標準化された心理学的テストを用いて検討した。
その結果、LLMは認知的共感タスクにおいて、心理学生を含む人間よりも一貫して優れていたことが判明した。
しかし, 認知的強みにもかかわらず, 小・大言語モデルともに, 情緒的共感が人間に比べて有意に低かった。
これらの知見は、認知共感をシミュレートする言語モデルの能力の急速な進歩を浮き彫りにし、効果的な仮想交友とパーソナライズされた感情支援を提供する強力な可能性を示している。
さらに、高い認知度は低いが、感情的共感は、感情的疲労や偏見のリスクを負わずに、客観的で一貫した感情的支援を可能にする。
関連論文リスト
- AER-LLM: Ambiguity-aware Emotion Recognition Leveraging Large Language Models [18.482881562645264]
この研究は、あいまいな感情を認識する上でのLarge Language Models(LLM)の可能性を探究する最初のものである。
我々はゼロショットと少数ショットのプロンプトを設計し、過去の対話を曖昧な感情認識のための文脈情報として組み込んだ。
論文 参考訳(メタデータ) (2024-09-26T23:25:21Z) - APTNESS: Incorporating Appraisal Theory and Emotion Support Strategies for Empathetic Response Generation [71.26755736617478]
共感反応生成は、他人の感情を理解するように設計されている。
検索強化と感情支援戦略統合を組み合わせたフレームワークを開発する。
我々の枠組みは認知的・情緒的共感の両面からLLMの共感能力を高めることができる。
論文 参考訳(メタデータ) (2024-07-23T02:23:37Z) - Enablers and Barriers of Empathy in Software Developer and User
Interaction: A Mixed Methods Case Study [11.260371501613994]
開発者とエンドユーザ間の共感の実践について検討した。
我々は共感を誘発するために必要な認識の性質と共感の実現者を特定した。
共感の障壁と、これらの障壁を克服するための潜在的な戦略を発見した。
論文 参考訳(メタデータ) (2024-01-17T06:42:21Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - EMP-EVAL: A Framework for Measuring Empathy in Open Domain Dialogues [0.0]
EMP-EVALは単純だが効果的な自動共感評価法である。
提案手法は感情,認知,情緒的共感の影響を受ける。
我々の測定値が人間の嗜好と相関し、人間の判断と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-29T18:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。