論文の概要: EmotionPrompt: Leveraging Psychology for Large Language Models
Enhancement via Emotional Stimulus
- arxiv url: http://arxiv.org/abs/2307.11760v2
- Date: Tue, 25 Jul 2023 03:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 20:04:40.826130
- Title: EmotionPrompt: Leveraging Psychology for Large Language Models
Enhancement via Emotional Stimulus
- Title(参考訳): emotionprompt: 感情刺激による大規模言語モデル強化のための心理学の活用
- Authors: Cheng Li, Jindong Wang, Kaijie Zhu, Yixuan Zhang, Wenxin Hou, Jianxun
Lian, Xing Xie
- Abstract要約: 大規模言語モデル(LLM)の性能向上を目的とした感情情報探索のための感情プロンプトを提案する。
EmotionPromptは、同じ単一のプロンプトテンプレートを使用して、オリジナルのゼロショットプロンプトとゼロショットCoTを8タスクで大幅に上回っています。
我々は、EmotionPromptが人間とLLMの相互作用に関する学際的知識を探求するための新たな道のりであると信じている。
- 参考スコア(独自算出の注目度): 35.229791969438665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have achieved significant performance in many
fields such as reasoning, language understanding, and math problem-solving, and
are regarded as a crucial step to artificial general intelligence (AGI).
However, the sensitivity of LLMs to prompts remains a major bottleneck for
their daily adoption. In this paper, we take inspiration from psychology and
propose EmotionPrompt to explore emotional intelligence to enhance the
performance of LLMs. EmotionPrompt operates on a remarkably straightforward
principle: the incorporation of emotional stimulus into prompts. Experimental
results demonstrate that our EmotionPrompt, using the same single prompt
templates, significantly outperforms original zero-shot prompt and
Zero-shot-CoT on 8 tasks with diverse models: ChatGPT, Vicuna-13b, Bloom, and
T5. Further, EmotionPrompt was observed to improve both truthfulness and
informativeness. We believe that EmotionPrompt heralds a novel avenue for
exploring interdisciplinary knowledge for humans-LLMs interaction.
- Abstract(参考訳): 大規模言語モデル(LLM)は、推論、言語理解、数学問題解決など多くの分野で大きな成果を上げており、人工知能(AGI)にとって重要なステップと考えられている。
しかしながら、LSMのプロンプトに対する感受性は、日常的に採用する上で大きなボトルネックとなっている。
本稿では,心理学からインスピレーションを得て,情緒的インテリジェンスを探求し,LLMの性能を高めるための感情プロンプトを提案する。
EmotionPromptは、感情刺激をプロンプトに組み込むという、驚くほど単純な原理で機能する。
実験の結果,同一のプロンプトテンプレートを用いて,チャットgpt,vicuna-13b,bloom,t5の8つのタスクにおいて,感情プロンプトがオリジナルのゼロショットプロンプトとゼロショットコットを大きく上回ることがわかった。
さらに、感情プロンプトは真理性と情報性の両方を改善するために観察された。
我々は、EmotionPromptが人間とLLMの相互作用に関する学際的知識を探求するための新たな道のりであると信じている。
関連論文リスト
- AER-LLM: Ambiguity-aware Emotion Recognition Leveraging Large Language Models [18.482881562645264]
この研究は、あいまいな感情を認識する上でのLarge Language Models(LLM)の可能性を探究する最初のものである。
我々はゼロショットと少数ショットのプロンプトを設計し、過去の対話を曖昧な感情認識のための文脈情報として組み込んだ。
論文 参考訳(メタデータ) (2024-09-26T23:25:21Z) - EmotionQueen: A Benchmark for Evaluating Empathy of Large Language Models [41.699045246349385]
本稿では,大規模言語モデル(LLM)の感情的インテリジェンスを評価するためのEmotionQueenというフレームワークを提案する。
このフレームワークには、キーイベント認識、混合イベント認識、インプリシット感情認識、意図認識の4つの固有のタスクが含まれている。
実験により、LLMの能力と感情知能の限界について重要な結論が得られた。
論文 参考訳(メタデータ) (2024-09-20T09:44:51Z) - EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - NegativePrompt: Leveraging Psychology for Large Language Models Enhancement via Negative Emotional Stimuli [21.846500669385193]
大規模言語モデル(LLM)は幅広い応用に不可欠なものとなっている。
LLMには感情的な知性があり、肯定的な感情刺激によってさらに発展することができる。
心理学的原理に基づく新しいアプローチであるNegativePromptを紹介する。
論文 参考訳(メタデータ) (2024-05-05T05:06:07Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Emotional Intelligence of Large Language Models [9.834823298632374]
大規模言語モデル(LLM)は多くの分野において顕著な能力を示している。
しかし、現実世界の応用にとって重要な人間の感情や価値観との整合性は、体系的に評価されていない。
そこで我々は,感情認識,解釈,理解を含むLLMの感情知能(EI)を評価した。
論文 参考訳(メタデータ) (2023-07-18T07:49:38Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。