論文の概要: FABG : End-to-end Imitation Learning for Embodied Affective Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2503.01363v2
- Date: Tue, 04 Mar 2025 07:51:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:14:17.665598
- Title: FABG : End-to-end Imitation Learning for Embodied Affective Human-Robot Interaction
- Title(参考訳): FABG : 身体障害者とロボットのインタラクションのためのエンド・ツー・エンドの模倣学習
- Authors: Yanghai Zhang, Changyi Liu, Keting Fu, Wenbin Zhou, Qingdu Li, Jianwei Zhang,
- Abstract要約: 本稿では,人間-ロボットインタラクションのためのエンドツーエンドの模倣学習システムであるFABG(Facial Affective Behavior Generation)を提案する。
我々は,立体空間を操作者が知覚できる没入型バーチャルリアリティ(VR)デモシステムを開発した。
実世界の25自由度ヒューマノイドロボットにFABGをデプロイし,その効果を4つの基本的なインタラクションタスクで検証する。
- 参考スコア(独自算出の注目度): 3.8177867835232004
- License:
- Abstract: This paper proposes FABG (Facial Affective Behavior Generation), an end-to-end imitation learning system for human-robot interaction, designed to generate natural and fluid facial affective behaviors. In interaction, effectively obtaining high-quality demonstrations remains a challenge. In this work, we develop an immersive virtual reality (VR) demonstration system that allows operators to perceive stereoscopic environments. This system ensures "the operator's visual perception matches the robot's sensory input" and "the operator's actions directly determine the robot's behaviors" - as if the operator replaces the robot in human interaction engagements. We propose a prediction-driven latency compensation strategy to reduce robotic reaction delays and enhance interaction fluency. FABG naturally acquires human interactive behaviors and subconscious motions driven by intuition, eliminating manual behavior scripting. We deploy FABG on a real-world 25-degree-of-freedom (DoF) humanoid robot, validating its effectiveness through four fundamental interaction tasks: expression response, dynamic gaze, foveated attention, and gesture recognition, supported by data collection and policy training. Project website: https://cybergenies.github.io
- Abstract(参考訳): 本稿では,人間とロボットの相互作用を再現するエンド・ツー・エンドの模倣学習システムであるFABG(Facial Affective Behavior Generation)を提案する。
相互作用において、効果的に高品質なデモンストレーションを得ることは、依然として課題である。
本研究では,没入型バーチャルリアリティ(VR)デモシステムを開発し,操作者が立体視環境を知覚できるようにする。
このシステムは,「操作者の視覚知覚がロボットの知覚入力と一致」し,「操作者の行動がロボットの行動を直接決定する」ことを保証している。
本稿では,ロボット反応の遅延を低減し,相互作用の流速を向上させるために,予測駆動型遅延補償戦略を提案する。
FABGは、直感によって引き起こされる人間の対話的行動と意識下動作を自然に取得し、手動の動作スクリプティングを除去する。
実世界の25自由度ロボット(DoF)にFABGをデプロイし、データ収集とポリシートレーニングによって支援された、表現応答、動的視線、ファベレーテッドアテンション、ジェスチャー認識の4つの基本的な相互作用タスクを通して、その効果を検証する。
プロジェクトサイト: https://cybergenies.github.io
関連論文リスト
- Moto: Latent Motion Token as the Bridging Language for Robot Manipulation [66.18557528695924]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - EMOTION: Expressive Motion Sequence Generation for Humanoid Robots with In-Context Learning [10.266351600604612]
本稿では,ヒューマノイドロボットにおける表現型動き列を生成するためのEMOTIONというフレームワークを提案する。
本研究では,EMOTIONが生成する動作の自然性と理解性を比較したオンラインユーザ研究を行い,その人間フィードバックバージョンであるEMOTION++について述べる。
論文 参考訳(メタデータ) (2024-10-30T17:22:45Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Real-Time Dynamic Robot-Assisted Hand-Object Interaction via Motion Primitives [45.256762954338704]
本稿では,動的ロボット支援ハンドオブジェクトインタラクションに着目した物理HRIの強化手法を提案する。
我々はトランスフォーマーに基づくアルゴリズムを用いて、1枚のRGB画像から人間の手の動きをリアルタイムに3Dモデリングする。
ロボットのアクション実装は、継続的に更新された3Dハンドモデルを使用して動的に微調整される。
論文 参考訳(メタデータ) (2024-05-29T21:20:16Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - A ROS Architecture for Personalised HRI with a Bartender Social Robot [61.843727637976045]
BRILLOプロジェクトの目的は、自律的なロボットバーテンダーを作ることだ。
本稿では、異なる社会信号の処理を管理する知覚層と、多人数インタラクションを処理する意思決定層と、腕と顔からなる複雑なロボットの動作を制御する実行層を統合した3層ROSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-13T11:33:06Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。