論文の概要: Do Machines Think Emotionally? Cognitive Appraisal Analysis of Large Language Models
- arxiv url: http://arxiv.org/abs/2508.05880v1
- Date: Thu, 07 Aug 2025 22:19:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.022414
- Title: Do Machines Think Emotionally? Cognitive Appraisal Analysis of Large Language Models
- Title(参考訳): 機械は感情的に考えるか? 大規模言語モデルの認知的評価分析
- Authors: Sree Bhattacharyya, Lucas Craig, Tharun Dilliraj, Jia Li, James Z. Wang,
- Abstract要約: 我々は,大規模言語モデルで暗黙的に使用される内的認知構造を評価するために,感情に対する認知推論に関する大規模ベンチマークを導入する。
結果と分析結果から,LLMの多種多様な推論パターンが明らかとなった。
- 参考スコア(独自算出の注目度): 13.341709038654198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Affective Computing has been established as a crucial field of inquiry to advance the holistic development of Artificial Intelligence (AI) systems. Foundation models -- especially Large Language Models (LLMs) -- have been evaluated, trained, or instruction-tuned in several past works, to become better predictors or generators of emotion. Most of these studies, however, approach emotion-related tasks in a supervised manner, assessing or training the capabilities of LLMs using discrete emotion labels associated with stimuli (e.g., text, images, video, audio). Evaluation studies, in particular, have often been limited to standard and superficial emotion-related tasks, such as the recognition of evoked or expressed emotions. In this paper, we move beyond surface-level emotion tasks to investigate how LLMs reason about emotions through cognitive dimensions. Drawing from cognitive appraisal theory, we examine whether LLMs produce coherent and plausible cognitive reasoning when reasoning about emotionally charged stimuli. We introduce a large-scale benchmark on Cognitive Reasoning for Emotions - CoRE - to evaluate internal cognitive structures implicitly used by LLMs for emotional reasoning. Through a plethora of evaluation experiments and analysis, we seek to answer: (a) Are models more likely to implicitly rely on specific cognitive appraisal dimensions?, (b) What cognitive dimensions are important for characterizing specific emotions?, and, (c) Can the internal representations of different emotion categories in LLMs be interpreted through cognitive appraisal dimensions? Our results and analyses reveal diverse reasoning patterns across different LLMs. Our benchmark and code will be made publicly available.
- Abstract(参考訳): Affective Computingは、人工知能(AI)システムの総合的な開発を進めるための重要な調査分野として確立されている。
基礎モデル -- 特にLarge Language Models (LLMs) -- は、より優れた予測子や感情のジェネレータとなるために、過去の作業で評価、訓練、あるいは指導された。
しかしながら、これらの研究の多くは、刺激(例えば、テキスト、画像、ビデオ、音声)に関連付けられた個別の感情ラベルを用いて、LLMの能力を評価し、訓練することで、教師付き方法で感情関連タスクにアプローチする。
特に評価研究は、しばしば、誘発された感情や表現された感情の認識のような、標準的な、表面的な感情に関連するタスクに限られている。
本稿では,LLMが認知的次元を通じて感情をどう考えるかを検討するために,表面レベルの感情タスクを超えて行動する。
認知評価理論から,LLMが感情に荷担した刺激を推論する際に,コヒーレントで妥当な認知的推論をもたらすかどうかを検討する。
本研究では,情緒的推論にLLMが暗黙的に用いている内的認知構造を評価するために,感情に対する認知的推論(CoRE)に関する大規模ベンチマークを導入する。
さまざまな評価実験と分析を通じて、私たちは答えを求めます。
(a)モデルは、特定の認知的評価次元に暗黙的に依存する傾向がありますか?
?
b)特定の感情を特徴づけるのに、認知的次元が重要であるか。
と
(c)LLMにおける異なる感情カテゴリーの内部表現は認知的評価次元を通して解釈できるか?
結果と分析結果から,LLMの多種多様な推論パターンが明らかとなった。
ベンチマークとコードは公開されます。
関連論文リスト
- AI shares emotion with humans across languages and cultures [12.530921452568291]
言語文化グループとモデル家族間の人間とAIの感情的アライメントを評価する。
分析の結果,LLM由来の感情空間は人間の知覚と構造的に一致していることがわかった。
モデル表現は、異なる感情カテゴリーにまたがって安定かつ自然に調節可能であることを示す。
論文 参考訳(メタデータ) (2025-06-11T14:42:30Z) - Beyond Context to Cognitive Appraisal: Emotion Reasoning as a Theory of Mind Benchmark for Large Language Models [11.255011967393838]
本研究では,大規模言語モデル(LLM)が文脈情報を用いて,他者の情緒状態をどう判断するかを検討するために,表面レベルの知覚的特徴を超えて前進する。
認知評価理論を基礎としたToM評価データセット1をキュレートし,前向きの推論(文脈から感情へ)と後向きの推論(文脈から感情へ)の両方を評価する。
論文 参考訳(メタデータ) (2025-05-31T01:18:04Z) - AI with Emotions: Exploring Emotional Expressions in Large Language Models [0.0]
大きな言語モデル(LLM)は、特定の感情状態で質問に答えるエージェントとしてロールプレイを行う。
ラッセルの「サイクムプレックス」モデルは、眠気(覚醒)と快楽(静寂)の軸に沿った感情を特徴づける。
評価の結果, 生成した回答の感情状態は, 仕様と一致していた。
論文 参考訳(メタデータ) (2025-04-20T18:49:25Z) - Mechanistic Interpretability of Emotion Inference in Large Language Models [16.42503362001602]
感情表現は大規模言語モデルにおいて特定の領域に機能的に局所化されていることを示す。
我々は,環境刺激の評価から感情が出現することを示すための認知的評価理論を導いた。
この研究は、因果的に介入し、感情的なテキスト生成を正確に形作る新しい方法を強調している。
論文 参考訳(メタデータ) (2025-02-08T08:11:37Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。