論文の概要: XR$^3$: An Extended Reality Platform for Social-Physical Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2601.12395v3
- Date: Fri, 23 Jan 2026 11:54:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.828383
- Title: XR$^3$: An Extended Reality Platform for Social-Physical Human-Robot Interaction
- Title(参考訳): XR$^3$: 社会物理学的人間-ロボットインタラクションのための拡張現実感プラットフォーム
- Authors: Chao Wang, Anna Belardinelli, Michael Gienger,
- Abstract要約: 提案するXR$3$は、HRI研究のための、共位置演算子と隠れたデュアルVRヘッドセットプラットフォームである。
ロボットの上半身の動き、頭と目の動き、表情は、操作者の追跡された手足と顔信号からマッピングされる。
システム設計とキャリブレーションを詳述し、タッチベースのWizard-of-Oz研究でそのプラットフォームを実証する。
- 参考スコア(独自算出の注目度): 7.5509967369489965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social-physical human-robot interaction (spHRI) is difficult to study: building and programming robots that integrate multiple interaction modalities is costly and slow, while VR-based prototypes often lack physical contact, breaking users' visuo-tactile expectations. We present XR$^3$, a co-located dual-VR-headset platform for HRI research in which an attendee and a hidden operator share the same physical space while experiencing different virtual embodiments. The attendee sees an expressive virtual robot that interacts face-to-face in a shared virtual environment. In real time, the robot's upper-body motion, head and gaze behavior, and facial expressions are mapped from the operator's tracked limbs and face signals. Because the operator is co-present and calibrated in the same coordinate frame, the operator can also touch the attendee, enabling perceived robot touch synchronized with the robot's visible hands. Finger and hand motion is mapped to the robot avatar using inverse kinematics to support precise contact. Beyond motion retargeting, XR$^3$ supports social retargeting of multiple nonverbal cues that can be experimentally varied while keeping physical interaction constant. We detail the system design and calibration, and demonstrate the platform in a touch-based Wizard-of-Oz study, lowering the barrier to prototyping and evaluating embodied, contact-based robot behaviors.
- Abstract(参考訳): 複数のインタラクションモダリティを統合するロボットの構築とプログラミングはコストがかかり、遅い。一方、VRベースのプロトタイプは物理的接触を欠いていることが多く、ユーザの視力と触覚の期待を損なう。
我々は,HRI研究のための共同配置型デュアルVRヘッドセットプラットフォームであるXR$^3$を提示する。
参加者は、共有仮想環境で対面する表現力のある仮想ロボットを見る。
ロボットの上半身の動き、頭部および視線行動、表情を、操作者の追跡された手足と顔信号からリアルタイムでマッピングする。
操作者は同じ座標フレームで同じ表示と校正を行うため、操作者は参加者に触れることができ、認識されたロボットのタッチがロボットの目に見える手と同期できるようにする。
指と手の動きは、逆運動学を用いてロボットアバターにマッピングされ、正確な接触をサポートする。
モーションリターゲティング以外にも、XR$^3$は物理的相互作用を一定に保ちながら実験的に変化する複数の非言語的手がかりの社会的リターゲティングをサポートする。
システム設計とキャリブレーションを詳述し、タッチベースのWizard-of-Oz研究でプラットフォームを実証し、プロトタイピングの障壁を低くし、具体化された接触型ロボットの動作を評価する。
関連論文リスト
- Robotic Grasping and Placement Controlled by EEG-Based Hybrid Visual and Motor Imagery [64.82869118243723]
本稿では,脳波に基づく視覚・運動画像(VI/MI)とロボット制御を統合し,リアルタイム・意図駆動型把握・配置を実現するフレームワークを提案する。
このシステムは、BCI駆動のロボット工学の約束に感銘を受けて、オフラインで事前訓練されたデコーダをゼロショットで展開することによって、ニューラルネットワークを物理的制御でブリッジする。
論文 参考訳(メタデータ) (2026-03-03T17:41:42Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - Recognizing Actions from Robotic View for Natural Human-Robot Interaction [52.00935005918032]
自然人-ロボットインタラクション(Natural Human-Robot Interaction, N-HRI)は、ロボット自身が動いているか静止しているかに関わらず、ロボットが様々な距離と状態で人間の行動を認識することを要求する。
N-HRIの既存のベンチマークは、限られたデータ、モダリティ、タスクカテゴリ、主題や環境の多様性のために、N-HRIのユニークな複雑さに対処できない。
モバイルサービスロボットで広く使われている知覚中心ロボットビューのための大規模データセット(Action from Robotic View)を紹介する。
論文 参考訳(メタデータ) (2025-07-30T09:48:34Z) - FABG : End-to-end Imitation Learning for Embodied Affective Human-Robot Interaction [3.8177867835232004]
本稿では,人間-ロボットインタラクションのためのエンドツーエンドの模倣学習システムであるFABG(Facial Affective Behavior Generation)を提案する。
我々は,立体空間を操作者が知覚できる没入型バーチャルリアリティ(VR)デモシステムを開発した。
実世界の25自由度ヒューマノイドロボットにFABGをデプロイし,その効果を4つの基本的なインタラクションタスクで検証する。
論文 参考訳(メタデータ) (2025-03-03T09:58:04Z) - Towards Embedding Dynamic Personas in Interactive Robots: Masquerading Animated Social Kinematics (MASK) [10.351714893090964]
本稿では,キャラクターライクなペルソナを用いたユーザエンゲージメントを高める革新的な対話型ロボットシステムの設計と開発について述べる。
ペルソナ駆動のダイアログエージェントの基礎の上に構築されたこの研究は、エージェントを物理的な領域に拡張し、ロボットを使ってより魅了的で対話的な体験を提供する。
論文 参考訳(メタデータ) (2024-03-15T06:22:32Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - A ROS Architecture for Personalised HRI with a Bartender Social Robot [61.843727637976045]
BRILLOプロジェクトの目的は、自律的なロボットバーテンダーを作ることだ。
本稿では、異なる社会信号の処理を管理する知覚層と、多人数インタラクションを処理する意思決定層と、腕と顔からなる複雑なロボットの動作を制御する実行層を統合した3層ROSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-13T11:33:06Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。