論文の概要: Data-driven emotional body language generation for social robotics
- arxiv url: http://arxiv.org/abs/2205.00763v1
- Date: Mon, 2 May 2022 09:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 21:31:30.817594
- Title: Data-driven emotional body language generation for social robotics
- Title(参考訳): ソーシャルロボティクスのためのデータ駆動型感情身体言語生成
- Authors: Mina Marmpena, Fernando Garcia, Angelica Lim, Nikolas Hemion and
Thomas Wennekers
- Abstract要約: 社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
- 参考スコア(独自算出の注目度): 58.88028813371423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In social robotics, endowing humanoid robots with the ability to generate
bodily expressions of affect can improve human-robot interaction and
collaboration, since humans attribute, and perhaps subconsciously anticipate,
such traces to perceive an agent as engaging, trustworthy, and socially
present. Robotic emotional body language needs to be believable, nuanced and
relevant to the context. We implemented a deep learning data-driven framework
that learns from a few hand-designed robotic bodily expressions and can
generate numerous new ones of similar believability and lifelikeness. The
framework uses the Conditional Variational Autoencoder model and a sampling
approach based on the geometric properties of the model's latent space to
condition the generative process on targeted levels of valence and arousal. The
evaluation study found that the anthropomorphism and animacy of the generated
expressions are not perceived differently from the hand-designed ones, and the
emotional conditioning was adequately differentiable between most levels except
the pairs of neutral-positive valence and low-medium arousal. Furthermore, an
exploratory analysis of the results reveals a possible impact of the
conditioning on the perceived dominance of the robot, as well as on the
participants' attention.
- Abstract(参考訳): 社会ロボティクスでは、人間とロボットの相互作用やコラボレーションを改善する能力を持つヒューマノイドロボットは、人間の属性や、おそらくは意識的に予測されるため、エージェントをエンゲージメント、信頼性、社会的な存在として知覚する。
ロボット的な感情的なボディランゲージは、そのコンテキストに信頼性、ニュアンス、および関連性を持つ必要がある。
私たちは、いくつかの手作りのロボットの身体表現から学習し、同様の信頼性と生命に類似した多数の新しい表現を生成できるディープラーニングデータ駆動フレームワークを実装した。
このフレームワークは、条件付き変分オートエンコーダモデルと、モデルの潜在空間の幾何学的性質に基づくサンプリングアプローチを用いて、ターゲットとなる原子価と覚醒のレベルに生成過程を条件付ける。
評価実験の結果, 生成した表現の人間同型とアニマティクスは, 手作業による表現と異なるものではなく, 感情的条件付けは中性正価と低中性覚醒のペアを除いてほとんどのレベルで適切に区別可能であることがわかった。
さらに,実験結果の探索分析により,コンディショニングがロボットの知覚的支配や参加者の注意に影響を及ぼす可能性が示唆された。
関連論文リスト
- EMOTION: Expressive Motion Sequence Generation for Humanoid Robots with In-Context Learning [10.266351600604612]
本稿では,ヒューマノイドロボットにおける表現型動き列を生成するためのEMOTIONというフレームワークを提案する。
本研究では,EMOTIONが生成する動作の自然性と理解性を比較したオンラインユーザ研究を行い,その人間フィードバックバージョンであるEMOTION++について述べる。
論文 参考訳(メタデータ) (2024-10-30T17:22:45Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition [65.69256728493015]
本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:28:26Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Sensorimotor representation learning for an "active self" in robots: A
model survey [10.649413494649293]
人間では、これらの能力は宇宙で私たちの身体を知覚する能力と関連していると考えられている。
本稿では,これらの能力の発達過程について概説する。
人工エージェントにおける自己感覚の出現を可能にする理論計算フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-25T16:31:01Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。