論文の概要: Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot
- arxiv url: http://arxiv.org/abs/2103.04498v1
- Date: Mon, 8 Mar 2021 01:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:24:08.116463
- Title: Let's be friends! A rapport-building 3D embodied conversational agent
for the Human Support Robot
- Title(参考訳): 友達になりましょう!
人体支援ロボットのためのラプポート構築型3次元対話エージェント
- Authors: Katarzyna Pasternak, Zishi Wu, Ubbo Visser, and Christine Lisetti
- Abstract要約: 会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠である。
本研究の課題は,対話者の表情と頭部の動きを反映できるECAとヒューマンサービスロボットを組み合わせることで,ユーザエクスペリエンスが向上するかどうかである。
私たちの貢献は、対話者の顔を追跡し、人間の支援ロボットと統合されたリアルタイムで顔の表情や頭の動きを反映することができる表現的ECAの複雑な統合です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial subtle mirroring of nonverbal behaviors during conversations (also
known as mimicking or parallel empathy), is essential for rapport building,
which in turn is essential for optimal human-human communication outcomes.
Mirroring has been studied in interactions between robots and humans, and in
interactions between Embodied Conversational Agents (ECAs) and humans. However,
very few studies examine interactions between humans and ECAs that are
integrated with robots, and none of them examine the effect of mirroring
nonverbal behaviors in such interactions. Our research question is whether
integrating an ECA able to mirror its interlocutor's facial expressions and
head movements (continuously or intermittently) with a human-service robot will
improve the user's experience with the support robot that is able to perform
useful mobile manipulative tasks (e.g. at home). Our contribution is the
complex integration of an expressive ECA, able to track its interlocutor's
face, and to mirror his/her facial expressions and head movements in real time,
integrated with a human support robot such that the robot and the agent are
fully aware of each others', and of the users', nonverbals cues. We also
describe a pilot study we conducted towards answering our research question,
which shows promising results for our forthcoming larger user study.
- Abstract(参考訳): 会話中の非言語行動の微妙なミラーリング(模倣または平行共感とも呼ばれる)はラプポート構築に不可欠であり、それによって人間と人間のコミュニケーションの最適な結果に不可欠である。
ミラーリングは、ロボットと人間の相互作用、および体外会話エージェント(ECA)と人間の間の相互作用で研究されています。
しかし、ロボットと統合されるヒトとecasの相互作用を観察する研究はほとんどなく、これらの相互作用における非言語的行動のミラーリングの効果も検討されていない。
私たちの研究課題は、対話者の表情と頭部の動き(連続的または断続的に)を人間サービスロボットに統合できるECAが、有用なモバイルマニピュレーションタスクを実行できるサポートロボットでユーザーの経験を向上させるかどうかである。
自宅で)。
私たちの貢献は、表現力のあるecaの複雑な統合であり、その対話者の顔を追跡し、その表情や頭部の動きをリアルタイムで反映し、ロボットとエージェントが互いに完全に認識し合うような人間支援ロボットと、ユーザの非言語的手がかりとを融合させます。
また、今後の大型ユーザー調査の有望な結果を示す研究課題への回答に向けたパイロット研究についても説明します。
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Towards a Real-time Measure of the Perception of Anthropomorphism in
Human-robot Interaction [5.112850258732114]
我々は,オンラインの人間とロボットのインタラクション実験を,教育現場で実施した。
この研究には43人の英語話者が参加した。
その結果,擬人化の主観的・客観的知覚の程度は,音響・韻律的エントレメントと正の相関が認められた。
論文 参考訳(メタデータ) (2022-01-24T11:10:37Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - A proxemics game between festival visitors and an industrial robot [1.2599533416395767]
人間ロボットチームのコラボレーションパートナーの非言語的行動は、ヒューマンインタラクションパートナーの体験に影響を及ぼす。
Ars Electronica 2020 Festival for Art, Technology and Society(オーストリア、リンツ)では,産業用ロボットとの対話を招待した。
本研究では,ロボットと対話する人間の一般的な非言語行動と,聴衆の非言語行動について検討した。
論文 参考訳(メタデータ) (2021-05-28T13:26:00Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。