論文の概要: ERICA: An Empathetic Android Companion for Covid-19 Quarantine
- arxiv url: http://arxiv.org/abs/2106.02325v1
- Date: Fri, 4 Jun 2021 08:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:00:15.506823
- Title: ERICA: An Empathetic Android Companion for Covid-19 Quarantine
- Title(参考訳): ERICA:Covid-19 Quarantine用の共感的なAndroidコンパニオン
- Authors: Etsuko Ishii, Genta Indra Winata, Samuel Cahyawijaya, Divesh Lala,
Tatsuya Kawahara, Pascale Fung
- Abstract要約: 我々は,自己隔離下での人々の隔離を容易にするために,エンド・ツー・エンドの対話システムを導入する。
ユーザインタフェース, Nora 対 Android ERICA という Web ベースの仮想エージェントの効果をビデオ通話で評価するための制御シミュレーション実験を行った。
- 参考スコア(独自算出の注目度): 63.79997830430368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past year, research in various domains, including Natural Language
Processing (NLP), has been accelerated to fight against the COVID-19 pandemic,
yet such research has just started on dialogue systems. In this paper, we
introduce an end-to-end dialogue system which aims to ease the isolation of
people under self-quarantine. We conduct a control simulation experiment to
assess the effects of the user interface, a web-based virtual agent called Nora
vs. the android ERICA via a video call. The experimental results show that the
android offers a more valuable user experience by giving the impression of
being more empathetic and engaging in the conversation due to its nonverbal
information, such as facial expressions and body gestures.
- Abstract(参考訳): 過去1年間で、自然言語処理(NLP)を含むさまざまな分野の研究は、新型コロナウイルス(COVID-19)のパンデミックに対抗するために加速されてきたが、そうした研究は対話システムで始まったばかりである。
本稿では,自律的な隔離を目的としたエンドツーエンド対話システムを提案する。
ユーザインタフェース, Nora 対 Android ERICA という Web ベースの仮想エージェントの効果をビデオ通話で評価するための制御シミュレーション実験を行った。
実験の結果,アンドロイドは表情や身振りなどの非言語的情報により,共感的であり,会話に係わる印象を与えることにより,より価値の高いユーザエクスペリエンスを提供することが示された。
関連論文リスト
- Generating Human-Centric Visual Cues for Human-Object Interaction
Detection via Large Vision-Language Models [59.611697856666304]
人-物対検出(Human-object Interaction:HOI)は、人-物対を検出し、その相互作用を予測することを目的とする。
我々はVLMを用いた3つのプロンプトを提案し、人間の複数の視点から画像内で人間中心の視覚的手がかりを生成する。
我々は,マルチトワーアーキテクチャを用いたトランスフォーマーベースのマルチモーダル融合モジュールを開発し,視覚的キュー機能をインスタンスと対話デコーダに統合する。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Does Collaborative Human-LM Dialogue Generation Help Information
Extraction from Human Dialogues? [55.28340832822234]
実際のアプリケーションにおける人間の対話の問題解決は、既存のWizard-of-Ozコレクションよりもはるかに複雑である。
本稿では,リアルな対話を合成できる人間間対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-13T20:02:50Z) - Think Twice: A Human-like Two-stage Conversational Agent for Emotional
Response Generation [16.831275847153606]
感情対話生成のための2段階対話エージェントを提案する。
まず,感情アノテートされた対話コーパスを使わずに訓練された対話モデルを用いて,文脈意味に合致するプロトタイプ応答を生成する。
第二に、第一段階のプロトタイプは共感仮説で制御可能な感情精錬器によって修正される。
論文 参考訳(メタデータ) (2023-01-12T10:03:56Z) - CDialog: A Multi-turn Covid-19 Conversation Dataset for Entity-Aware
Dialog Generation [18.047064216849204]
われわれは,CDialog と命名された Covid-19 病に関連する高品質な医療用ダイアログデータセットを公表した。
本稿では,CDialogデータセットに基づく新しい医用ダイアログシステムを提案する。
論文 参考訳(メタデータ) (2022-11-16T11:07:34Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - The Effects of Interactive AI Design on User Behavior: An Eye-tracking
Study of Fact-checking COVID-19 Claims [12.00747200817161]
我々は,AIを用いたファクトチェックシステムの相互作用がユーザインタラクションに与える影響について,実験室による眼球追跡調査を行った。
その結果、AIシステムの予測パラメータを対話的に操作することの存在は、ユーザの生活時間や、AOIの眼球修正に影響を及ぼすが、精神的な作業負荷には影響しないことがわかった。
論文 参考訳(メタデータ) (2022-02-17T21:08:57Z) - Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot [0.0]
会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
論文 参考訳(メタデータ) (2021-03-08T01:02:41Z) - Fine-grained Emotion and Intent Learning in Movie Dialogues [1.2891210250935146]
OpenSubtitlesコーパスから取得した1Mの対話からなる、新しい大規模感情対話データセットを提案する。
本研究は,映画の字幕の前処理や,アノテートに優れた映画対話の選択に使用される複雑なパイプラインを説明する。
このような感情対話の分類は、データセットのサイズと微粒な感情と意図のカテゴリーの両方において試みられたことがない。
論文 参考訳(メタデータ) (2020-12-25T20:29:56Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Towards Persona-Based Empathetic Conversational Models [58.65492299237112]
共感的会話モデルは、多くのドメインにおけるユーザの満足度とタスク結果を改善することが示されている。
心理学において、ペルソナは人格と高い相関関係があることが示され、それによって共感に影響を及ぼす。
本研究では,ペルソナに基づく共感的会話に対する新たな課題を提案し,ペルソナが共感的反応に与える影響に関する最初の経験的研究を示す。
論文 参考訳(メタデータ) (2020-04-26T08:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。