論文の概要: FaceChat: An Emotion-Aware Face-to-face Dialogue Framework
- arxiv url: http://arxiv.org/abs/2303.07316v1
- Date: Wed, 8 Mar 2023 20:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:48:31.438063
- Title: FaceChat: An Emotion-Aware Face-to-face Dialogue Framework
- Title(参考訳): FaceChat: 感情認識型対面対話フレームワーク
- Authors: Deema Alnuhait, Qingyang Wu, Zhou Yu
- Abstract要約: FaceChatは、感情に敏感で対面的な会話を可能にするWebベースの対話フレームワークである。
システムには、カウンセリング、感情サポート、パーソナライズされたカスタマーサービスなど、幅広い潜在的なアプリケーションがある。
- 参考スコア(独自算出の注目度): 58.67608580694849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current dialogue systems like ChatGPT have made significant
advancements in text-based interactions, they often overlook the potential of
other modalities in enhancing the overall user experience. We present FaceChat,
a web-based dialogue framework that enables emotionally-sensitive and
face-to-face conversations. By seamlessly integrating cutting-edge technologies
in natural language processing, computer vision, and speech processing,
FaceChat delivers a highly immersive and engaging user experience. FaceChat
framework has a wide range of potential applications, including counseling,
emotional support, and personalized customer service. The system is designed to
be simple and flexible as a platform for future researchers to advance the
field of multimodal dialogue systems. The code is publicly available at
https://github.com/qywu/FaceChat.
- Abstract(参考訳): chatgptのような現在の対話システムは、テキストベースのインタラクションにおいて大きな進歩を遂げているが、ユーザーエクスペリエンス全体の拡張における他のモダリティの可能性を見落としていることが多い。
感情に敏感な対面会話を可能にするwebベースの対話フレームワークであるfacechatを提案する。
最先端技術を自然言語処理、コンピュータビジョン、音声処理にシームレスに統合することで、facechatは没入的で魅力的なユーザー体験を提供する。
facechatフレームワークにはカウンセリング、感情サポート、パーソナライズされたカスタマーサービスなど、幅広い潜在的なアプリケーションがある。
このシステムは、将来の研究者がマルチモーダル対話システム分野を進めるためのプラットフォームとして、シンプルで柔軟に設計されている。
コードはhttps://github.com/qywu/FaceChat.comで公開されている。
関連論文リスト
- WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - AVIN-Chat: An Audio-Visual Interactive Chatbot System with Emotional State Tuning [9.989693906734535]
AVIN-Chatを使えば、ユーザーはリアルタイムで3Dアバターと対面会話ができる。
提案したAVIN-Chatは、ユーザの感情状態に応じて感情的に話し、表現する。
論文 参考訳(メタデータ) (2024-08-15T22:45:53Z) - Let's Go Real Talk: Spoken Dialogue Model for Face-to-Face Conversation [55.043492250775294]
本稿では,新しい対面音声対話モデルを提案する。
ユーザ入力から音声視覚音声を処理し、応答として音声視覚音声を生成する。
また,最初の大規模マルチモーダル音声対話コーパスであるMultiDialogを紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:48:36Z) - SAPIEN: Affective Virtual Agents Powered by Large Language Models [2.423280064224919]
我々は,大規模言語モデルによって駆動される高忠実度仮想エージェントのためのプラットフォームであるSAPIENを紹介する。
このプラットフォームでは、仮想エージェントのパーソナリティ、バックグラウンド、会話の前提をカスタマイズすることができる。
仮想会議の後、ユーザーは会話を分析し、コミュニケーションスキルに対して実行可能なフィードバックを受け取ることができる。
論文 参考訳(メタデータ) (2023-08-06T05:13:16Z) - InternGPT: Solving Vision-Centric Tasks by Interacting with ChatGPT
Beyond Language [82.92236977726655]
InternGPTは textbfinteraction, textbfnonverbal, textbfchatbot の略である。
InternGPT(iGPT)という対話型視覚フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T17:58:34Z) - ChatLLM Network: More brains, More intelligence [42.65167827451101]
本稿では,複数の対話型言語モデルと対話し,フィードバックを提供し,一緒に考えることができるChatLLMネットワークを提案する。
我々は,ネットワークが問題解決の大幅な改善を達成し,各メンバーの観測可能性の向上につながったことを示す。
論文 参考訳(メタデータ) (2023-04-24T08:29:14Z) - Emotionally Enhanced Talking Face Generation [52.07451348895041]
我々は、適切な表現でビデオを生成するために、カテゴリー的感情に基づく話し顔生成フレームワークを構築した。
モデルが任意のアイデンティティ、感情、言語に適応できることを示します。
提案するフレームワークはユーザフレンドリーなWebインターフェースを備えており,感情を伴う顔生成をリアルタイムに行うことができる。
論文 参考訳(メタデータ) (2023-03-21T02:33:27Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - A Unified Framework for Emotion Identification and Generation in
Dialogues [5.102770724328495]
本稿では,対話の感情を協調的に識別し,その感情に応じて応答を生成するマルチタスクフレームワークを提案する。
本研究では,BERTをベースとしたネットワークを用いて共感システムを構築し,エンド・ツー・エンドのネットワークを分類と生成損失の両方で訓練する混合目的関数を用いる。
論文 参考訳(メタデータ) (2022-05-31T02:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。