論文の概要: Toward a Dialogue System Using a Large Language Model to Recognize User Emotions with a Camera
- arxiv url: http://arxiv.org/abs/2408.07982v1
- Date: Thu, 15 Aug 2024 07:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 14:46:15.972636
- Title: Toward a Dialogue System Using a Large Language Model to Recognize User Emotions with a Camera
- Title(参考訳): 大規模言語モデルを用いた対話システムに向けて : カメラによるユーザ感情認識
- Authors: Hiroki Tanioka, Tetsushi Ueta, Masahiko Sano,
- Abstract要約: ユーザの表情から感情を認識するためのAIエージェントの方法は研究されていない。
LLMをベースとしたAIエージェントが、カメラと対話してユーザをキャプチャすることで、感情状態に応じてユーザと対話できるかどうかを検討した。
その結果、AIエージェントは、HappyやAngryのような比較的高いスコアを持つ感情状態の感情状態に応じて会話できることを確認した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The performance of ChatGPT\copyright{} and other LLMs has improved tremendously, and in online environments, they are increasingly likely to be used in a wide variety of situations, such as ChatBot on web pages, call center operations using voice interaction, and dialogue functions using agents. In the offline environment, multimodal dialogue functions are also being realized, such as guidance by Artificial Intelligence agents (AI agents) using tablet terminals and dialogue systems in the form of LLMs mounted on robots. In this multimodal dialogue, mutual emotion recognition between the AI and the user will become important. So far, there have been methods for expressing emotions on the part of the AI agent or for recognizing them using textual or voice information of the user's utterances, but methods for AI agents to recognize emotions from the user's facial expressions have not been studied. In this study, we examined whether or not LLM-based AI agents can interact with users according to their emotional states by capturing the user in dialogue with a camera, recognizing emotions from facial expressions, and adding such emotion information to prompts. The results confirmed that AI agents can have conversations according to the emotional state for emotional states with relatively high scores, such as Happy and Angry.
- Abstract(参考訳): ChatGPT\copyright{} などの LLM の性能は大幅に向上し,オンライン環境においては,Web ページ上の ChatBot や音声対話を用いたコールセンタ操作,エージェントを用いた対話機能など,さまざまな状況で使用される傾向にある。
オフライン環境では、タブレット端末を用いた人工知能エージェント(AIエージェント)による指導や、ロボットに搭載されたLDMの形での対話システムなど、マルチモーダルな対話機能も実現されている。
このマルチモーダル対話では、AIとユーザ間の相互感情認識が重要になる。
これまでのところ、AIエージェントの一部に感情を表現する方法や、ユーザの発話のテキスト情報や音声情報を用いてそれらを認識する方法があるが、AIエージェントがユーザーの表情から感情を認識する方法は研究されていない。
本研究では、LLMベースのAIエージェントが、カメラとの対話でユーザを捉え、表情から感情を認識し、その感情情報をプロンプトに追加することで、ユーザーの感情状態に応じてユーザーと対話できるかどうかを検討した。
その結果、AIエージェントは、HappyやAngryのような比較的高いスコアを持つ感情状態の感情状態に応じて会話できることを確認した。
関連論文リスト
- LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Talk With Human-like Agents: Empathetic Dialogue Through Perceptible Acoustic Reception and Reaction [23.115506530649988]
PerceptiveAgentは、より深い意味またはより微妙な意味を識別するために設計された共感的マルチモーダル対話システムである。
PerceptiveAgentは入力音声から音響情報を知覚し、自然言語で記述された話し方に基づいて共感応答を生成する。
論文 参考訳(メタデータ) (2024-06-18T15:19:51Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - Research on emotionally intelligent dialogue generation based on automatic dialogue system [10.064417058641979]
本研究は,感情情報技術を自動対話システムに統合する。
ディープラーニングと自然言語処理技術を通じて、感情的なインテリジェンスを備えた対話生成モデルを作成する。
論文 参考訳(メタデータ) (2024-04-17T14:55:03Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - FaceChat: An Emotion-Aware Face-to-face Dialogue Framework [58.67608580694849]
FaceChatは、感情に敏感で対面的な会話を可能にするWebベースの対話フレームワークである。
システムには、カウンセリング、感情サポート、パーソナライズされたカスタマーサービスなど、幅広い潜在的なアプリケーションがある。
論文 参考訳(メタデータ) (2023-03-08T20:45:37Z) - A Unified Framework for Emotion Identification and Generation in
Dialogues [5.102770724328495]
本稿では,対話の感情を協調的に識別し,その感情に応じて応答を生成するマルチタスクフレームワークを提案する。
本研究では,BERTをベースとしたネットワークを用いて共感システムを構築し,エンド・ツー・エンドのネットワークを分類と生成損失の両方で訓練する混合目的関数を用いる。
論文 参考訳(メタデータ) (2022-05-31T02:58:49Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - Towards Multi-Turn Empathetic Dialogs with Positive Emotion Elicitation [39.747587984500406]
本稿では,肯定的な感情誘発を伴う共感的対話生成の課題について述べる。
エージェントは、マルチターンダイアログにおいて、ユーザのポジティブ感情を引き出すターゲットとともに共感応答を行う。
我々はPosEmoDialと呼ばれる肯定的な感情誘発を伴う大規模感情対話データセットを収集する。
論文 参考訳(メタデータ) (2022-04-22T05:32:08Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - EmoWOZ: A Large-Scale Corpus and Labelling Scheme for Emotion in
Task-Oriented Dialogue Systems [3.3010169113961325]
EmoWOZはタスク指向対話の大規模手動感情注釈コーパスである。
11K以上の対話と83K以上の感情アノテーションを含む。
本稿では,タスク指向対話に適した新しい感情ラベリング手法を提案する。
論文 参考訳(メタデータ) (2021-09-10T15:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。