論文の概要: FaceChat: An Emotion-Aware Face-to-face Dialogue Framework
- arxiv url: http://arxiv.org/abs/2303.07316v1
- Date: Wed, 8 Mar 2023 20:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:48:31.438063
- Title: FaceChat: An Emotion-Aware Face-to-face Dialogue Framework
- Title(参考訳): FaceChat: 感情認識型対面対話フレームワーク
- Authors: Deema Alnuhait, Qingyang Wu, Zhou Yu
- Abstract要約: FaceChatは、感情に敏感で対面的な会話を可能にするWebベースの対話フレームワークである。
システムには、カウンセリング、感情サポート、パーソナライズされたカスタマーサービスなど、幅広い潜在的なアプリケーションがある。
- 参考スコア(独自算出の注目度): 58.67608580694849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current dialogue systems like ChatGPT have made significant
advancements in text-based interactions, they often overlook the potential of
other modalities in enhancing the overall user experience. We present FaceChat,
a web-based dialogue framework that enables emotionally-sensitive and
face-to-face conversations. By seamlessly integrating cutting-edge technologies
in natural language processing, computer vision, and speech processing,
FaceChat delivers a highly immersive and engaging user experience. FaceChat
framework has a wide range of potential applications, including counseling,
emotional support, and personalized customer service. The system is designed to
be simple and flexible as a platform for future researchers to advance the
field of multimodal dialogue systems. The code is publicly available at
https://github.com/qywu/FaceChat.
- Abstract(参考訳): chatgptのような現在の対話システムは、テキストベースのインタラクションにおいて大きな進歩を遂げているが、ユーザーエクスペリエンス全体の拡張における他のモダリティの可能性を見落としていることが多い。
感情に敏感な対面会話を可能にするwebベースの対話フレームワークであるfacechatを提案する。
最先端技術を自然言語処理、コンピュータビジョン、音声処理にシームレスに統合することで、facechatは没入的で魅力的なユーザー体験を提供する。
facechatフレームワークにはカウンセリング、感情サポート、パーソナライズされたカスタマーサービスなど、幅広い潜在的なアプリケーションがある。
このシステムは、将来の研究者がマルチモーダル対話システム分野を進めるためのプラットフォームとして、シンプルで柔軟に設計されている。
コードはhttps://github.com/qywu/FaceChat.comで公開されている。
関連論文リスト
- FurChat: An Embodied Conversational Agent using LLMs, Combining Open and
Closed-Domain Dialogue with Facial Expressions [6.710740803770234]
本研究では,アクセプティストとして機能し,表情とともにオープンドメインとクローズドドメインの対話を混合して生成できる具体的会話エージェントを実演する。
このシステムをFurhatロボットにデプロイし、対話中に言語と非言語の両方の手がかりを利用できるようにした。
論文 参考訳(メタデータ) (2023-08-29T11:08:40Z) - SAPIEN: Affective Virtual Agents Powered by Large Language Models [2.423280064224919]
我々は,大規模言語モデルによって駆動される高忠実度仮想エージェントのためのプラットフォームであるSAPIENを紹介する。
このプラットフォームでは、仮想エージェントのパーソナリティ、バックグラウンド、会話の前提をカスタマイズすることができる。
仮想会議の後、ユーザーは会話を分析し、コミュニケーションスキルに対して実行可能なフィードバックを受け取ることができる。
論文 参考訳(メタデータ) (2023-08-06T05:13:16Z) - InternGPT: Solving Vision-Centric Tasks by Interacting with ChatGPT
Beyond Language [82.92236977726655]
InternGPTは textbfinteraction, textbfnonverbal, textbfchatbot の略である。
InternGPT(iGPT)という対話型視覚フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T17:58:34Z) - SMILE: Single-turn to Multi-turn Inclusive Language Expansion via
ChatGPT for Mental Health Support [28.370263099251638]
SMILEは、ChatGPTが公開のシングルターン対話をマルチターン言語に書き換えるよう促すマルチターン包括的言語拡張技術である。
我々は55,165の対話からなる大規模で多種多様な高品質な対話データセットSmileChatを作成し、対話毎に平均10.4回転する。
SmileChatの全体的な品質を評価するために,82のカウンセリング対話からなる実生活チャットデータセットをモデル評価のために収集した。
論文 参考訳(メタデータ) (2023-04-30T11:26:10Z) - ChatLLM Network: More brains, More intelligence [42.65167827451101]
本稿では,複数の対話型言語モデルと対話し,フィードバックを提供し,一緒に考えることができるChatLLMネットワークを提案する。
我々は,ネットワークが問題解決の大幅な改善を達成し,各メンバーの観測可能性の向上につながったことを示す。
論文 参考訳(メタデータ) (2023-04-24T08:29:14Z) - Emotionally Enhanced Talking Face Generation [52.07451348895041]
我々は、適切な表現でビデオを生成するために、カテゴリー的感情に基づく話し顔生成フレームワークを構築した。
モデルが任意のアイデンティティ、感情、言語に適応できることを示します。
提案するフレームワークはユーザフレンドリーなWebインターフェースを備えており,感情を伴う顔生成をリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2023-03-21T02:33:27Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - A Unified Framework for Emotion Identification and Generation in
Dialogues [5.102770724328495]
本稿では,対話の感情を協調的に識別し,その感情に応じて応答を生成するマルチタスクフレームワークを提案する。
本研究では,BERTをベースとしたネットワークを用いて共感システムを構築し,エンド・ツー・エンドのネットワークを分類と生成損失の両方で訓練する混合目的関数を用いる。
論文 参考訳(メタデータ) (2022-05-31T02:58:49Z) - Chat-Capsule: A Hierarchical Capsule for Dialog-level Emotion Analysis [70.98130990040228]
本稿では,発話レベルと対話レベルの両方の感情とその相互関係をモデル化したコンテキストベースの階層的注意カプセル(Chat-Capsule)モデルを提案する。
Eコマースプラットフォームの顧客サポートから収集したダイアログデータセットでは,ユーザの満足度や感情曲線のカテゴリも予測できる。
論文 参考訳(メタデータ) (2022-03-23T08:04:30Z) - UniDS: A Unified Dialogue System for Chit-Chat and Task-oriented
Dialogues [59.499965460525694]
上記の2つのスキルを備えた統合対話システム(UniDS)を提案する。
我々は、チャットとタスク指向の対話の両方に対応可能な統合対話データスキーマを設計する。
我々は、事前訓練されたチャット対話モデルから混合対話データでUniDSを訓練する。
論文 参考訳(メタデータ) (2021-10-15T11:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。