論文の概要: Gesture Evaluation in Virtual Reality
- arxiv url: http://arxiv.org/abs/2509.12816v1
- Date: Tue, 16 Sep 2025 08:35:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.970489
- Title: Gesture Evaluation in Virtual Reality
- Title(参考訳): バーチャルリアリティにおけるジェスチャー評価
- Authors: Axel Wiebe Werner, Jonas Beskow, Anna Deichler,
- Abstract要約: 本稿では,VRと2Dにおけるコンピュータ生成ジェスチャの比較評価を行う。
以上の結果から、VRで見るジェスチャーは平均よりわずかに高く評価され、モーションキャプチャーの「真の動き」に最も強い効果が見られた。
- 参考スコア(独自算出の注目度): 5.092711491848192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gestures are central to human communication, enriching interactions through non-verbal expression. Virtual avatars increasingly use AI-generated gestures to enhance life-likeness, yet evaluations have largely been confined to 2D. Virtual Reality (VR) provides an immersive alternative that may affect how gestures are perceived. This paper presents a comparative evaluation of computer-generated gestures in VR and 2D, examining three models from the 2023 GENEA Challenge. Results show that gestures viewed in VR were rated slightly higher on average, with the strongest effect observed for motion-capture "true movement." While model rankings remained consistent across settings, VR influenced participants' overall perception and offered unique benefits over traditional 2D evaluation.
- Abstract(参考訳): ジェスチャーは人間のコミュニケーションの中心であり、非言語的表現を通じて相互作用を豊かにする。
仮想アバターは、AI生成ジェスチャを使ってライフライクさを高めるが、評価は主に2Dに限られている。
VR(Virtual Reality)は、ジェスチャーの知覚に影響を及ぼす没入的な代替手段を提供する。
本稿では,VRと2Dにおけるコンピュータ生成ジェスチャーの比較評価を行い,2023年のGENEA Challengeの3つのモデルについて検討した。
その結果,VRで見るジェスチャーは平均でわずかに高く評価され,モーションキャプチャーの「真の動き」に最も強い効果が認められた。
モデルランキングは設定全体で一貫していたが、VRは参加者の全体的な認識に影響を与え、従来の2D評価よりも独特な利点を提供した。
関連論文リスト
- VisualSpeaker: Visually-Guided 3D Avatar Lip Synthesis [70.76837748695841]
視覚音声認識によって教師される写真リアルな微分可能レンダリングを用いてギャップを埋める新しい手法であるVisualSpeakerを提案する。
我々の貢献は、訓練中に訓練済みの視覚自動音声認識モデルを通して3Dガウス・スプティング・アバターレンダリングを通過させることによって得られる、知覚的な唇読影損失である。
MEADデータセットの評価は、VisualSpeakerが標準のLip Vertex Errorメトリックを56.1%改善し、生成されたアニメーションの知覚的品質を向上し、メッシュ駆動アニメーションの制御性を維持していることを示している。
論文 参考訳(メタデータ) (2025-07-08T15:04:17Z) - Eye-See-You: Reverse Pass-Through VR and Head Avatars [6.514203459446675]
RevAvatarは、リバースパススルー技術を可能にするためにAI方法論を活用する革新的なフレームワークである。
RevAvatarは最先端の生成モデルとマルチモーダルAI技術を統合して、高忠実度2D顔画像の再構成を行う。
多様なVR特有の条件をエミュレートするために設計された20万のサンプルからなる新しいデータセットであるVR-Faceを提示する。
論文 参考訳(メタデータ) (2025-05-24T21:08:19Z) - EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - The Trail Making Test in Virtual Reality (TMT-VR): The Effects of Interaction Modes and Gaming Skills on Cognitive Performance of Young Adults [0.7916635054977068]
本研究は,VRにおけるトレイルメイキングテスト(TMT-VR)の開発と評価である。
異なるインタラクションモードとゲームスキルが認知能力に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2024-10-30T22:06:14Z) - Self-Avatar Animation in Virtual Reality: Impact of Motion Signals Artifacts on the Full-Body Pose Reconstruction [13.422686350235615]
本研究の目的は,自己アバターのフルボディポーズの再現に対する影響を計測することである。
テキストYOLOv8のポーズ推定から推定した3次元動画像と3次元動画像座標を用いて動画像再構成誤差を解析する。
論文 参考訳(メタデータ) (2024-04-29T12:02:06Z) - VR-GS: A Physical Dynamics-Aware Interactive Gaussian Splatting System in Virtual Reality [39.53150683721031]
提案するVR-GSシステムは,人間中心の3Dコンテンツインタラクションにおける飛躍的な進歩を示す。
私たちの仮想現実システムのコンポーネントは、高い効率と有効性のために設計されています。
論文 参考訳(メタデータ) (2024-01-30T01:28:36Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z) - Pixel Codec Avatars [99.36561532588831]
Pixel Codec Avatars(PiCA)は、3D人間の顔の深い生成モデルです。
oculus quest 2のモバイルvrヘッドセットでは、同じシーンで5つのアバターがリアルタイムでレンダリングされる。
論文 参考訳(メタデータ) (2021-04-09T23:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。