論文の概要: The Good, The Bad, and Why: Unveiling Emotions in Generative AI
- arxiv url: http://arxiv.org/abs/2312.11111v2
- Date: Tue, 19 Dec 2023 04:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 20:16:53.193432
- Title: The Good, The Bad, and Why: Unveiling Emotions in Generative AI
- Title(参考訳): 良いこと、悪いこと、なぜか:生成AIにおける感情の流出
- Authors: Cheng Li, Jindong Wang, Yixuan Zhang, Kaijie Zhu, Xinyi Wang, Wenxin
Hou, Jianxun Lian, Fang Luo, Qiang Yang, Xing Xie
- Abstract要約: EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
- 参考スコア(独自算出の注目度): 76.40058756117445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion significantly impacts our daily behaviors and interactions. While
recent generative AI models, such as large language models, have shown
impressive performance in various tasks, it remains unclear whether they truly
comprehend emotions. This paper aims to address this gap by incorporating
psychological theories to gain a holistic understanding of emotions in
generative AI models. Specifically, we propose three approaches: 1)
EmotionPrompt to enhance AI model performance, 2) EmotionAttack to impair AI
model performance, and 3) EmotionDecode to explain the effects of emotional
stimuli, both benign and malignant. Through extensive experiments involving
language and multi-modal models on semantic understanding, logical reasoning,
and generation tasks, we demonstrate that both textual and visual EmotionPrompt
can boost the performance of AI models while EmotionAttack can hinder it.
Additionally, EmotionDecode reveals that AI models can comprehend emotional
stimuli akin to the mechanism of dopamine in the human brain. Our work heralds
a novel avenue for exploring psychology to enhance our understanding of
generative AI models. This paper is an extended version of our previous work
EmotionPrompt (arXiv:2307.11760).
- Abstract(参考訳): 感情は日々の行動や相互作用に大きく影響します。
最近の大きな言語モデルのような生成型aiモデルは、様々なタスクで印象的なパフォーマンスを示しているが、それらが本当に感情を理解するかどうかは不明だ。
本稿では,生成型aiモデルにおける感情の総合的理解を得るために,心理理論を取り入れることで,このギャップに対処することを目的とする。
具体的には3つのアプローチを提案します
1)AIモデルの性能を高めるための感情プロンプト。
2)AIモデルの性能を損なう感情アタック
3) 良性および悪性の情動刺激の効果を説明するための感情デコード。
セマンティック理解、論理的推論、生成タスクに関する言語モデルとマルチモーダルモデルを含む広範な実験を通じて、テキストと視覚の両方のEmotionPromptがAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示した。
さらにemotiondecodeは、aiモデルが人間の脳におけるドーパミンのメカニズムに似た感情的な刺激を理解できることを明らかにしている。
我々の研究は、生成的AIモデルの理解を深めるために心理学を探求するための新しい道筋である。
本論文は、これまでのEmotionPrompt(arXiv:2307.11760)の拡張版である。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Emotional Images: Assessing Emotions in Images and Potential Biases in Generative Models [0.0]
本稿では、生成人工知能(AI)モデルにより生成された画像の感情的誘発における潜在的なバイアスと矛盾について検討する。
我々は、AIが生成した画像によって誘発される感情と、それらの画像を作成するために使用されるプロンプトによって誘発される感情を比較した。
発見は、AI生成画像が元のプロンプトに関係なく、しばしばネガティブな感情的コンテンツに傾いていることを示している。
論文 参考訳(メタデータ) (2024-11-08T21:42:50Z) - EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - Improved Emotional Alignment of AI and Humans: Human Ratings of Emotions Expressed by Stable Diffusion v1, DALL-E 2, and DALL-E 3 [10.76478480925475]
生成AIシステムは、テキストや画像を通じて感情を表現する能力がますます高まっている。
生成的AIによって表現される感情と人間の知覚のアライメントを測定する。
我々は、アライメントが使用するAIモデルと感情そのものに大きく依存していることを示します。
論文 参考訳(メタデータ) (2024-05-28T18:26:57Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - A Portrait of Emotion: Empowering Self-Expression through AI-Generated
Art [0.0]
本研究では,創造的表現を通じて著者の認知過程を反映する生成人工知能(AI)の可能性と限界について検討した。
その結果,主イベントに対する著者の感情の記述に基づく画像の嗜好が示された。
生成AIを用いた研究フレームワークは、関連する分野におけるAIベースの介入を設計するのに役立ちます。
論文 参考訳(メタデータ) (2023-04-26T06:54:53Z) - HICEM: A High-Coverage Emotion Model for Artificial Emotional
Intelligence [9.153146173929935]
次世代の人工知能(AEI)は、より深く、より有意義な人間と機械の相互作用に対するユーザの欲求に対処するために、中心的な段階を採っている。
心理学における歴史的焦点である感情の理論とは異なり、感情モデルは記述的な道具である。
この研究は、社会ロボティクス、人間と機械の相互作用、メンタルヘルスケア、計算心理学に幅広い影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-15T15:21:30Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Modeling emotion for human-like behavior in future intelligent robots [0.913755431537592]
我々は、神経科学が芸術の現在の状態をいかに前進させるかを示す。
ロボットモデルにおける感情関連プロセスのより強力な統合は、人間のような行動の設計に不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2020-09-30T17:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。