論文の概要: Real-Time Imitation of Human Head Motions, Blinks and Emotions by Nao Robot: A Closed-Loop Approach
- arxiv url: http://arxiv.org/abs/2504.19985v1
- Date: Mon, 28 Apr 2025 17:01:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.521591
- Title: Real-Time Imitation of Human Head Motions, Blinks and Emotions by Nao Robot: A Closed-Loop Approach
- Title(参考訳): 直ロボットによる人間の頭部運動・瞬き・感情のリアルタイム模倣--クローズドループアプローチ
- Authors: Keyhan Rayati, Amirhossein Feizi, Alireza Beigy, Pourya Shahverdi, Mehdi Tale Masouleh, Ahmad Kalhor,
- Abstract要約: 本稿では,ロボットによる人間の頭部の動きをリアルタイムに再現するための新しいアプローチを提案する。
MediaPipeをコンピュータビジョンライブラリとして、DeepFaceを感情認識ライブラリとして使用することにより、この研究は人間の頭の動きの微妙さを捉えようとしている。
提案手法は,自閉症児のコミュニケーション改善を約束し,より効果的なインタラクションのための貴重なツールを提供する。
- 参考スコア(独自算出の注目度): 2.473948454680334
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel approach for enabling real-time imitation of human head motion by a Nao robot, with a primary focus on elevating human-robot interactions. By using the robust capabilities of the MediaPipe as a computer vision library and the DeepFace as an emotion recognition library, this research endeavors to capture the subtleties of human head motion, including blink actions and emotional expressions, and seamlessly incorporate these indicators into the robot's responses. The result is a comprehensive framework which facilitates precise head imitation within human-robot interactions, utilizing a closed-loop approach that involves gathering real-time feedback from the robot's imitation performance. This feedback loop ensures a high degree of accuracy in modeling head motion, as evidenced by an impressive R2 score of 96.3 for pitch and 98.9 for yaw. Notably, the proposed approach holds promise in improving communication for children with autism, offering them a valuable tool for more effective interaction. In essence, proposed work explores the integration of real-time head imitation and real-time emotion recognition to enhance human-robot interactions, with potential benefits for individuals with unique communication needs.
- Abstract(参考訳): そこで本研究では,人間とロボットの相互作用の高揚に着目した,人間の頭部の動きをリアルタイムに再現する手法を提案する。
MediaPipeをコンピュータビジョンライブラリとして、DeepFaceを感情認識ライブラリとして使用することにより、この研究は、瞬き動作や感情表現を含む人間の頭の動きの微妙さを捉え、これらの指標をロボットの反応にシームレスに組み込む。
その結果、ロボットの模倣性能からリアルタイムフィードバックを収集するクローズドループアプローチを利用して、人間とロボットのインタラクション内での正確な頭部模倣を容易にする包括的フレームワークが得られた。
このフィードバックループは、ピッチが96.3、ヨーが98.9という印象的なR2スコアによって証明されているように、頭部の動きをモデル化する際の高い精度を保証する。
提案手法は自閉症児のコミュニケーション改善に有効であり、より効果的な相互作用のための貴重なツールである。
基本的には、人間とロボットの相互作用を強化するために、リアルタイムの頭部模倣とリアルタイムの感情認識の統合と、ユニークなコミュニケーションニーズを持つ個人に対する潜在的な利益について検討する。
関連論文リスト
- FABG : End-to-end Imitation Learning for Embodied Affective Human-Robot Interaction [3.8177867835232004]
本稿では,人間-ロボットインタラクションのためのエンドツーエンドの模倣学習システムであるFABG(Facial Affective Behavior Generation)を提案する。
我々は,立体空間を操作者が知覚できる没入型バーチャルリアリティ(VR)デモシステムを開発した。
実世界の25自由度ヒューマノイドロボットにFABGをデプロイし,その効果を4つの基本的なインタラクションタスクで検証する。
論文 参考訳(メタデータ) (2025-03-03T09:58:04Z) - Multi-face emotion detection for effective Human-Robot Interaction [0.0]
本研究では,移動型ヒューマノイドロボットに組み込まれた顔の感情検出インタフェースを提案する。
表情認識のためのディープニューラルネットワークモデルを開発し評価した。
論文 参考訳(メタデータ) (2025-01-13T11:12:47Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。