論文の概要: What's Next in Affective Modeling? Large Language Models
- arxiv url: http://arxiv.org/abs/2310.18322v1
- Date: Tue, 3 Oct 2023 16:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 14:05:04.898287
- Title: What's Next in Affective Modeling? Large Language Models
- Title(参考訳): 情緒的モデリングの次は何でしょう?
大規模言語モデル
- Authors: Nutchanon Yongsatianchot, Tobias Thejll-Madsen, Stacy Marsella
- Abstract要約: GPT-4は複数の感情タスクでうまく機能する。
感情理論を区別し、感情的な物語を思いつくことができる。
我々は、LLMが感情モデリングにおいて重要な役割を果たすことを示唆している。
- 参考スコア(独自算出の注目度): 3.0902630634005797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLM) have recently been shown to perform well at
various tasks from language understanding, reasoning, storytelling, and
information search to theory of mind. In an extension of this work, we explore
the ability of GPT-4 to solve tasks related to emotion prediction. GPT-4
performs well across multiple emotion tasks; it can distinguish emotion
theories and come up with emotional stories. We show that by prompting GPT-4 to
identify key factors of an emotional experience, it is able to manipulate the
emotional intensity of its own stories. Furthermore, we explore GPT-4's ability
on reverse appraisals by asking it to predict either the goal, belief, or
emotion of a person using the other two. In general, GPT-4 can make the correct
inferences. We suggest that LLMs could play an important role in affective
modeling; however, they will not fully replace works that attempt to model the
mechanisms underlying emotion-related processes.
- Abstract(参考訳): 大規模言語モデル(llm)は、言語理解、推論、ストーリーテリング、情報検索から心の理論まで、様々なタスクでうまく機能することが最近示されている。
本研究の延長として,感情予測に関わる課題を解決するための GPT-4 の能力について検討する。
GPT-4は、感情理論を区別し、感情的な物語を思いつくことができる。
本研究は,GPT-4に感情体験の重要な要因を識別するよう促すことにより,自身の物語の感情的強度を操作可能であることを示す。
さらに, GPT-4 の逆評価能力について, 他者の目標, 信念, 感情の予測を依頼することで検討した。
一般に、GPT-4は正しい推論を行うことができる。
LLMは感情モデルにおいて重要な役割を果たす可能性があるが、感情関連プロセスの基礎となるメカニズムをモデル化しようとする作業を完全に置き換えるものではない。
関連論文リスト
- From Text to Emotion: Unveiling the Emotion Annotation Capabilities of LLMs [12.199629860735195]
我々は、GPT4と教師付きモデルと、人間のアノテーションとの一致、人間の知覚の一致、モデルトレーニングへの影響の3つの側面を比較した。
GPT-4の性能を過小評価する上で,人間アノテーションを基本事実として利用する一般的な指標が有効であることがわかった。
論文 参考訳(メタデータ) (2024-08-30T05:50:15Z) - GPT-4 Emulates Average-Human Emotional Cognition from a Third-Person Perspective [1.642094639107215]
まず最初に、脳神経活動のパターンを見つけるために設計された感情誘発刺激を慎重に構築する。
以上の結果から, GPT-4は特に精度が高いことが示唆された。
GPT-4の解釈は,自己評価よりも,他者の感情に対する人間の判断と密接に一致していることがわかった。
論文 参考訳(メタデータ) (2024-08-11T01:22:09Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Does Conceptual Representation Require Embodiment? Insights From Large
Language Models [9.390117546307042]
ヒトとChatGPT(GPT-3.5およびGPT-4)の4,442の語彙概念の表現の比較
2) GPT-4 は GPT-3.5 よりも優れており,GPT-4 の利得は付加的な視覚学習と結びついており,触覚やイメージ容易性などの関連性にも寄与すると考えられる。
論文 参考訳(メタデータ) (2023-05-30T15:06:28Z) - Sparks of Artificial General Intelligence: Early experiments with GPT-4 [66.1188263570629]
OpenAIが開発したGPT-4は、前例のない規模の計算とデータを使って訓練された。
我々は, GPT-4が数学, コーディング, ビジョン, 医学, 法学, 心理学などにまたがる, 新規で困難な課題を解くことを実証した。
我々は、GPT-4を人工知能(AGI)システムの早期(まだ未完成)版と見なすことができると信じている。
論文 参考訳(メタデータ) (2023-03-22T16:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。