論文の概要: ShareYourReality: Investigating Haptic Feedback and Agency in Virtual
Avatar Co-embodiment
- arxiv url: http://arxiv.org/abs/2403.08363v1
- Date: Wed, 13 Mar 2024 09:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:16:20.930470
- Title: ShareYourReality: Investigating Haptic Feedback and Agency in Virtual
Avatar Co-embodiment
- Title(参考訳): ShareYourReality:仮想空間におけるハプティックフィードバックとエージェンシーの調査
Avatar Co‐Embodiment
- Authors: Karthikeya Puttur Venkatraj, Wo Meijer, Monica
Perusqu\'ia-Hern\'andez, Gijs Huisman and Abdallah El Ali
- Abstract要約: 2人のユーザーがバーチャルリアリティー(VR)で1つのアバターを共有できるバーチャルコエボディメント
このような経験において、共同行動中に共有動作制御の錯覚が壊れることがある。
我々は, 触覚が共身体的参加者間の非言語的協調を可能にする方法について検討する。
- 参考スコア(独自算出の注目度): 10.932344446402276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual co-embodiment enables two users to share a single avatar in Virtual
Reality (VR). During such experiences, the illusion of shared motion control
can break during joint-action activities, highlighting the need for
position-aware feedback mechanisms. Drawing on the perceptual crossing
paradigm, we explore how haptics can enable non-verbal coordination between
co-embodied participants. In a within-subjects study (20 participant pairs), we
examined the effects of vibrotactile haptic feedback (None, Present) and avatar
control distribution (25-75%, 50-50%, 75-25%) across two VR reaching tasks
(Targeted, Free-choice) on participants Sense of Agency (SoA), co-presence,
body ownership, and motion synchrony. We found (a) lower SoA in the free-choice
with haptics than without, (b) higher SoA during the shared targeted task, (c)
co-presence and body ownership were significantly higher in the free-choice
task, (d) players hand motions synchronized more in the targeted task. We
provide cautionary considerations when including haptic feedback mechanisms for
avatar co-embodiment experiences.
- Abstract(参考訳): 仮想共生(Virtual co-embodiment)は、2人のユーザが1つのアバターをVR(Virtual Reality)で共有することを可能にする。
このような経験において、共有動作制御の錯覚は、協調行動中に破壊され、位置認識フィードバック機構の必要性が強調される。
知覚的交差パラダイムを基礎として,触覚が共身体的参加者間の非言語的協調をいかに実現できるかを考察する。
被験者20名を対象に,VR到達タスク(ターゲット,フリーチョイス)における視覚的触覚フィードバック(None, Present)とアバター制御分布(25-75%, 50-50%, 75-25%)が,Sense of Agency(SoA),コプレゼンス,ボディオーナシップ,モーションシンクロニーに及ぼす影響について検討した。
発見
(a)自由選択におけるSoAの低下は、それ以下である。
(b)共有対象タスク中の高いSoA。
(c) 自由選択作業では, 共同存在と身体の所有が有意に高かった。
(d) 対象タスクにおいて、より同期されたプレイヤーの手の動き。
アバター共生体験に対する触覚フィードバック機構を含む場合,注意が必要である。
関連論文リスト
- POSE: Pose estimation Of virtual Sync Exhibit system [0.0]
その動機は、フィットネスリングで遊ぶときにジョイスティックやセンサーを使うのが不便であることです。
ジョイスティックを交換し,コストを削減するために,仮想アバターをポーズ推定により制御し,実際の人の動きを識別するプラットフォームを開発した。
論文 参考訳(メタデータ) (2024-10-20T09:34:15Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - Moving Avatars and Agents in Social Extended Reality Environments [16.094148092964264]
我々は,VR空間における非連続的な移動のために,連続したフルボディの人間表現を提供するスマートアバターシステムを紹介した。
また, 連続ロコモーション法に適用可能なスタッタ式ロコモーションの概念についても紹介する。
共有VR体験におけるSmart AvatarsとStuttered Locomotionの可能性について論じる。
論文 参考訳(メタデータ) (2023-06-26T07:51:17Z) - HOOV: Hand Out-Of-View Tracking for Proprioceptive Interaction using
Inertial Sensing [25.34222794274071]
HOOVは、VRユーザーが視野外の物体と対話できる手首回りのセンシング手法である。
単一手首の慣性センサの信号に基づいて,HOOVはユーザの手の位置を3空間で連続的に推定する。
我々の新しいデータ駆動手法は,手の位置と軌道を,手振りの連続的な推定から予測する。
論文 参考訳(メタデータ) (2023-03-13T11:25:32Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - AvatarPoser: Articulated Full-Body Pose Tracking from Sparse Motion
Sensing [24.053096294334694]
AvatarPoserは、ユーザの頭と手の動きのみを入力として、世界座標におけるフルボディポーズを予測する最初の学習ベースの方法である。
提案手法はTransformerエンコーダ上に構築され,入力信号から深い特徴を抽出し,学習した局所的な関節方向からグローバルな動きを分離する。
我々の評価では、AvatarPoserは大規模なモーションキャプチャーデータセットの評価において、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2022-07-27T20:52:39Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。