論文の概要: Human-like Affective Cognition in Foundation Models
- arxiv url: http://arxiv.org/abs/2409.11733v1
- Date: Wed, 18 Sep 2024 06:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:00:08.051622
- Title: Human-like Affective Cognition in Foundation Models
- Title(参考訳): 基礎モデルにおける人間のような感情認知
- Authors: Kanishk Gandhi, Zoe Lynch, Jan-Philipp Fränken, Kayla Patterson, Sharon Wambu, Tobias Gerstenberg, Desmond C. Ong, Noah D. Goodman,
- Abstract要約: 基礎モデルにおける感情認知テストのための評価フレームワークを提案する。
評価、感情、表現、結果の間を探索する1,280の多様なシナリオを生成します。
以上の結果から,基礎モデルは人間の直感と一致しがちであることが明らかとなった。
- 参考スコア(独自算出の注目度): 28.631313772625578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding emotions is fundamental to human interaction and experience. Humans easily infer emotions from situations or facial expressions, situations from emotions, and do a variety of other \emph{affective cognition}. How adept is modern AI at these inferences? We introduce an evaluation framework for testing affective cognition in foundation models. Starting from psychological theory, we generate 1,280 diverse scenarios exploring relationships between appraisals, emotions, expressions, and outcomes. We evaluate the abilities of foundation models (GPT-4, Claude-3, Gemini-1.5-Pro) and humans (N = 567) across carefully selected conditions. Our results show foundation models tend to agree with human intuitions, matching or exceeding interparticipant agreement. In some conditions, models are ``superhuman'' -- they better predict modal human judgements than the average human. All models benefit from chain-of-thought reasoning. This suggests foundation models have acquired a human-like understanding of emotions and their influence on beliefs and behavior.
- Abstract(参考訳): 感情を理解することは人間の相互作用と経験の基本である。
人間は、状況や表情から感情を推測しやすく、感情から状況を推測し、他の様々な「感情に影響を及ぼす認知」を行う。
これらの推論において、現代のAIはどの程度有効か?
基礎モデルにおける感情認知テストのための評価フレームワークを提案する。
心理学理論から、評価、感情、表現、結果の間の関係を探求する1,280の多様なシナリオを生成する。
基礎モデル(GPT-4, Claude-3, Gemini-1.5-Pro)とヒト(N = 567)を慎重に選択した条件で評価した。
以上の結果から,基礎モデルは人間の直感と一致しがちであることが明らかとなった。
ある条件下では、モデルは「超人」であり、平均的な人間よりも、モーダルな人間の判断を予測した方がよい。
すべてのモデルは、チェーン・オブ・シークレットの推論の恩恵を受ける。
このことは、基礎モデルが人間のような感情の理解を得て、信念や行動に影響を及ぼしたことを示唆している。
関連論文リスト
- The Good, the Bad, and the Hulk-like GPT: Analyzing Emotional Decisions of Large Language Models in Cooperation and Bargaining Games [9.82711167146543]
本稿では,Large Language Models (LLMs) の意思決定に関する新しい方法論を紹介する。
感情がLLMのパフォーマンスに大きく影響を与え、より最適な戦略の開発につながることを示す。
驚くべきことに、感情的な刺激、特に怒りの感情は、GPT-4の「超人的」アライメントを妨害する可能性がある。
論文 参考訳(メタデータ) (2024-06-05T14:08:54Z) - Improved Emotional Alignment of AI and Humans: Human Ratings of Emotions Expressed by Stable Diffusion v1, DALL-E 2, and DALL-E 3 [10.76478480925475]
生成AIシステムは、テキストや画像を通じて感情を表現する能力がますます高まっている。
生成的AIによって表現される感情と人間の知覚のアライメントを測定する。
我々は、アライメントが使用するAIモデルと感情そのものに大きく依存していることを示します。
論文 参考訳(メタデータ) (2024-05-28T18:26:57Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Socratis: Are large multimodal models emotionally aware? [63.912414283486555]
既存の感情予測ベンチマークでは、様々な理由で画像やテキストが人間にもたらす感情の多様性を考慮していない。
社会反応ベンチマークであるソクラティス (Socratis) を提案し, それぞれのイメージ・キャプション(IC) ペアに複数の感情とそれらを感じる理由をアノテートする。
我々は、ICペアが与えられた感情を感じる理由を生成するために、最先端のマルチモーダルな大規模言語モデルの能力をベンチマークする。
論文 参考訳(メタデータ) (2023-08-31T13:59:35Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence [9.153146173929935]
次世代の人工知能(AEI)は、より深く、より有意義な人間と機械の相互作用に対するユーザの欲求に対処するために、中心的な段階を採っている。
心理学における歴史的焦点である感情の理論とは異なり、感情モデルは記述的な道具である。
この研究は、社会ロボティクス、人間と機械の相互作用、メンタルヘルスケア、計算心理学に幅広い影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-15T15:21:30Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - CARE: Commonsense-Aware Emotional Response Generation with Latent
Concepts [42.106573635463846]
本研究では,コモンセンスを意識した感情応答生成のための新しいモデルCAREを提案する。
まず,その応答の感情的潜在概念を共通認識で学習し,構築する枠組みを提案する。
次に, 潜在概念を反応生成に協調的に組み込む3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T15:47:30Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。