論文の概要: Modeling User Empathy Elicited by a Robot Storyteller
- arxiv url: http://arxiv.org/abs/2107.14345v1
- Date: Thu, 29 Jul 2021 21:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 12:51:45.269134
- Title: Modeling User Empathy Elicited by a Robot Storyteller
- Title(参考訳): ロボットストーリータラによるユーザ共感のモデル化
- Authors: Leena Mathur, Micol Spitale, Hao Xi, Jieyun Li, Maja J Matari\'c
- Abstract要約: 本稿では,ロボットエージェントとのインタラクション中に引き起こされたユーザ共感をモデル化するための最初のアプローチを提案する。
我々は8つの古典的機械学習モデルと2つのディープラーニングモデルを用いて共感を検出する実験を行った。
XGBoostをベースとした我々の最高性能のアプローチは、ビデオの共感を検出すると精度が69%、AUCが72%に達しました。
- 参考スコア(独自算出の注目度): 2.309914459672557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual and robotic agents capable of perceiving human empathy have the
potential to participate in engaging and meaningful human-machine interactions
that support human well-being. Prior research in computational empathy has
focused on designing empathic agents that use verbal and nonverbal behaviors to
simulate empathy and attempt to elicit empathic responses from humans. The
challenge of developing agents with the ability to automatically perceive
elicited empathy in humans remains largely unexplored. Our paper presents the
first approach to modeling user empathy elicited during interactions with a
robotic agent. We collected a new dataset from the novel interaction context of
participants listening to a robot storyteller (46 participants, 6.9 hours of
video). After each storytelling interaction, participants answered a
questionnaire that assessed their level of elicited empathy during the
interaction with the robot. We conducted experiments with 8 classical machine
learning models and 2 deep learning models (long short-term memory networks and
temporal convolutional networks) to detect empathy by leveraging patterns in
participants' visual behaviors while they were listening to the robot
storyteller. Our highest-performing approach, based on XGBoost, achieved an
accuracy of 69% and AUC of 72% when detecting empathy in videos. We contribute
insights regarding modeling approaches and visual features for automated
empathy detection. Our research informs and motivates future development of
empathy perception models that can be leveraged by virtual and robotic agents
during human-machine interactions.
- Abstract(参考訳): 人間の共感を知覚できる仮想的およびロボット的エージェントは、人間の幸福を支える有意義で有意義な人間と機械の相互作用に参加する可能性がある。
計算的共感の研究は、言語的および非言語的行動を用いて共感をシミュレートし、人間からの共感的反応を誘発する共感的エージェントの設計に焦点を当ててきた。
ヒトにおける誘惑的共感を自動的に知覚する能力を持つエージェントを開発するという課題はほとんど解明されていない。
本稿では,ロボットエージェントとのインタラクション中に誘発されるユーザの共感をモデル化する最初の手法を提案する。
ロボットのストーリーテラー(参加者46名、ビデオ時間6.9時間)を聴いた参加者の新たなインタラクションコンテキストから新しいデータセットを収集した。
各ストーリーテリングの対話の後、参加者はロボットとの対話中に誘発された共感のレベルを評価するアンケートに答えた。
8種類の古典的機械学習モデルと2つのディープラーニングモデル(長期記憶ネットワークと時間畳み込みネットワーク)を用いて実験を行い、ロボットストーリーテラーを聴きながら参加者の視覚行動のパターンを利用して共感を検出する。
xgboostに基づく当社の最高パフォーマンスアプローチは,ビデオの共感検出時の精度69%とauc72%を達成した。
自動共感検出のためのモデリングアプローチと視覚機能に関する洞察を提供する。
我々の研究は、人間と機械の相互作用において仮想エージェントやロボットエージェントが活用できる共感知覚モデルの将来的な発展を通知し、動機づける。
関連論文リスト
- EmpathicStories++: A Multimodal Dataset for Empathy towards Personal Experiences [19.626851022750067]
EmpathicStories++は共感に関する最初の時系列データセットで、参加者の家で1ヶ月以上にわたりソーシャルロボットをデプロイした。
2つの文脈で評価された個人的経験に基づいて、他人の物語に対する共感を予測する新しいタスクを導入する。
論文 参考訳(メタデータ) (2024-05-24T16:57:18Z) - Artificial Empathy Classification: A Survey of Deep Learning Techniques,
Datasets, and Evaluation Scales [0.0]
本稿では,これまでに収集および使用されてきたデータセットとともに,共感の計測と評価のための既存の作業について検討し,評価することを目的とする。
我々のゴールは、その性能を比較することで、AE領域における最先端の手法の活用を強調し、促進することである。
論文 参考訳(メタデータ) (2023-09-04T16:02:59Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - How Can AI Recognize Pain and Express Empathy [18.71528144336154]
痛みや共感などの感覚や感情的な経験は、精神的および身体的健康に関係している。
痛みの自動認識の現在の推進力は、ますます多くの医療要件によって動機付けられている。
本稿では,コンピュータによる痛み認識と人工共感実装の現況について概説する。
論文 参考訳(メタデータ) (2021-10-08T16:58:57Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Exemplars-guided Empathetic Response Generation Controlled by the
Elements of Human Communication [88.52901763928045]
そこで本稿では, インターロケータへの共感を伝達する, 造形モデルによる細かな構造的特性の解明に先立って, 模範的手法を提案する。
これらの手法は, 自動評価指標と人的評価指標の両方の観点から, 共感的応答品質の大幅な改善をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2021-06-22T14:02:33Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。