論文の概要: Silicon Minds versus Human Hearts: The Wisdom of Crowds Beats the Wisdom of AI in Emotion Recognition
- arxiv url: http://arxiv.org/abs/2508.08830v1
- Date: Tue, 12 Aug 2025 10:37:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.394258
- Title: Silicon Minds versus Human Hearts: The Wisdom of Crowds Beats the Wisdom of AI in Emotion Recognition
- Title(参考訳): シリコンバレーの心対人間の心: 群衆の知恵は感情認識におけるAIの知恵に勝る
- Authors: Mustafa Akben, Vinayaka Gude, Haya Ajjan,
- Abstract要約: 本研究では,視力検査(RMET)とMRMET(MRMET)を用いた大規模言語モデル(MLLM)の感情認識能力の評価を行った。
その結果、MLLMは平均して、両方のテストで感情を正確に識別する上で、人間よりも優れています。
本稿では,これらの知見が感情知能AIシステムの開発にもたらす意味について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to discern subtle emotional cues is fundamental to human social intelligence. As artificial intelligence (AI) becomes increasingly common, AI's ability to recognize and respond to human emotions is crucial for effective human-AI interactions. In particular, whether such systems can match or surpass human experts remains to be seen. However, the emotional intelligence of AI, particularly multimodal large language models (MLLMs), remains largely unexplored. This study evaluates the emotion recognition abilities of MLLMs using the Reading the Mind in the Eyes Test (RMET) and its multiracial counterpart (MRMET), and compares their performance against human participants. Results show that, on average, MLLMs outperform humans in accurately identifying emotions across both tests. This trend persists even when comparing performance across low, medium, and expert-level performing groups. Yet when we aggregate independent human decisions to simulate collective intelligence, human groups significantly surpass the performance of aggregated MLLM predictions, highlighting the wisdom of the crowd. Moreover, a collaborative approach (augmented intelligence) that combines human and MLLM predictions achieves greater accuracy than either humans or MLLMs alone. These results suggest that while MLLMs exhibit strong emotion recognition at the individual level, the collective intelligence of humans and the synergistic potential of human-AI collaboration offer the most promising path toward effective emotional AI. We discuss the implications of these findings for the development of emotionally intelligent AI systems and future research directions.
- Abstract(参考訳): 微妙な感情的な手がかりを識別する能力は、人間の社会的知性の基本である。
人工知能(AI)がますます一般的になるにつれて、人間の感情を認識し、反応するAIの能力は、人間とAIの効果的な相互作用に不可欠である。
特に、そのようなシステムが人間の専門家に匹敵するかどうかはまだわからない。
しかし、AIの感情的知性、特にマルチモーダルな大言語モデル(MLLM)はほとんど解明されていない。
本研究では,視力検査(RMET, Reading the Mind in the Eyes Test)とMRMET(Multiracial opponent)を用いてMLLMの感情認識能力を評価し,そのパフォーマンスを被験者と比較した。
その結果、MLLMは平均して、両方のテストで感情を正確に識別する上で、人間よりも優れています。
この傾向は、低、中、専門家レベルのパフォーマンスグループを比較しても継続します。
しかし、集団的知性をシミュレートする独立した人間の決定を集約すると、人間のグループは、集合的MLLM予測のパフォーマンスを大幅に上回り、群衆の知恵を強調します。
さらに、人間とMLLM予測を組み合わせた協調的アプローチ(強化された知能)は、人間またはMLLM単独よりも精度が高い。
これらの結果は、MLLMは個人のレベルで強い感情認識を示す一方で、人間の集合的知性と人間とAIの協調の相乗的ポテンシャルは、効果的な感情AIへの最も有望な道をもたらすことを示唆している。
本稿では,これらの知見が感情知能AIシステムの開発や今後の研究の方向性に与える影響について論じる。
関連論文リスト
- AI shares emotion with humans across languages and cultures [12.530921452568291]
言語文化グループとモデル家族間の人間とAIの感情的アライメントを評価する。
分析の結果,LLM由来の感情空間は人間の知覚と構造的に一致していることがわかった。
モデル表現は、異なる感情カテゴリーにまたがって安定かつ自然に調節可能であることを示す。
論文 参考訳(メタデータ) (2025-06-11T14:42:30Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes [0.09208007322096533]
現状のマルチモーダルシステムは、標準化された画像に対して人間の感情評価をエミュレートできるかどうかを検討する。
AIの判断は、平均的な人間の評価と驚くほどよく相関している。
論文 参考訳(メタデータ) (2025-03-24T15:41:23Z) - Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses [4.369058206183195]
本研究では,大規模言語モデル(LLM)に基づくAIシステムにおいて,AI生成したテキストの特徴が人間に主観意識を知覚させるかどうかを定量的に検討する。
回帰分析とクラスタリング分析を用いて,これらの特徴がAI意識に対する参加者の認識にどのように影響するかを検討した。
論文 参考訳(メタデータ) (2025-02-21T10:27:28Z) - MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - AER-LLM: Ambiguity-aware Emotion Recognition Leveraging Large Language Models [18.482881562645264]
この研究は、あいまいな感情を認識する上でのLarge Language Models(LLM)の可能性を探究する最初のものである。
我々はゼロショットと少数ショットのプロンプトを設計し、過去の対話を曖昧な感情認識のための文脈情報として組み込んだ。
論文 参考訳(メタデータ) (2024-09-26T23:25:21Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。