論文の概要: The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments
- arxiv url: http://arxiv.org/abs/2207.01092v1
- Date: Sun, 3 Jul 2022 18:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 16:26:54.476004
- Title: The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments
- Title(参考訳): ジェスチャオーサリング空間:没入型仮想環境における仮想物体把握のためのカスタマイズされたハンドジェスチャのオーサリング
- Authors: Alexander Sch\"afer, Gerd Reis, Didier Stricker
- Abstract要約: 本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
- 参考スコア(独自算出の注目度): 81.5101473684021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural user interfaces are on the rise. Manufacturers for Augmented,
Virtual, and Mixed Reality head mounted displays are increasingly integrating
new sensors into their consumer grade products, allowing gesture recognition
without additional hardware. This offers new possibilities for bare handed
interaction within virtual environments. This work proposes a hand gesture
authoring tool for object specific grab gestures allowing virtual objects to be
grabbed as in the real world. The presented solution uses template matching for
gesture recognition and requires no technical knowledge to design and create
custom tailored hand gestures. In a user study, the proposed approach is
compared with the pinch gesture and the controller for grasping virtual
objects. The different grasping techniques are compared in terms of accuracy,
task completion time, usability, and naturalness. The study showed that
gestures created with the proposed approach are perceived by users as a more
natural input modality than the others.
- Abstract(参考訳): 自然なユーザインターフェースが増加しています。
Augmented、Virtual、Mixed Realityのヘッドマウントディスプレイのメーカーは、新しいセンサーを消費者製品に統合し、新たなハードウェアなしでジェスチャー認識を可能にしている。
これは仮想環境内の素手インタラクションの新たな可能性を提供する。
本研究は、仮想オブジェクトを現実世界のようにつかむことができるオブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのハンドジェスチャの設計と作成に技術的な知識を必要としない。
ユーザ調査では,提案手法をピンチジェスチャと仮想物体を把持するコントローラと比較した。
異なる把握技術は、正確性、タスク完了時間、ユーザビリティ、自然性の観点から比較される。
本研究は,提案手法で作成したジェスチャが,他のジェスチャよりも自然な入力モダリティとしてユーザによって認識されることを示した。
関連論文リスト
- Systematic Adaptation of Communication-focused Machine Learning Models
from Real to Virtual Environments for Human-Robot Collaboration [1.392250707100996]
本稿では,仮想データセットのサイズを限定した,リアルから仮想への適応のための体系的フレームワークを提案する。
実世界の多くの研究とその後の商業化のトピックである手振り認識は、大きなラベル付きデータセットの作成によって可能になった。
論文 参考訳(メタデータ) (2023-07-21T03:24:55Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Comparing Controller With the Hand Gestures Pinch and Grab for Picking
Up and Placing Virtual Objects [81.5101473684021]
現代のアプリケーションは、通常、単純なピンチジェスチャーを使ってオブジェクトをつかみ、移動させる。
オブジェクトを拾い上げ、他のジェスチャの実装を防ぐのは不自然なジェスチャーである。
仮想オブジェクトをつかみ、配置するための異なる実装を提案し、比較した。
論文 参考訳(メタデータ) (2022-02-22T15:12:06Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - A Deep Learning Framework for Recognizing both Static and Dynamic
Gestures [0.8602553195689513]
静的なジェスチャーと動的ジェスチャーの両方を,(奥行き検出なしで)単純なRGBビジョンを用いて認識する統合フレームワークを提案する。
我々はポーズ駆動型空間アテンション戦略を採用し、提案した静的・動的ジェスチャネットワーク - StaDNet をガイドする。
いくつかの実験において、提案手法が大規模Chalearn 2016データセットの最先端結果を上回っていることが示されている。
論文 参考訳(メタデータ) (2020-06-11T10:39:02Z) - 3D dynamic hand gestures recognition using the Leap Motion sensor and
convolutional neural networks [0.0]
本稿では,Leap Motionセンサーを用いて取得した非静的なジェスチャーの認識方法を提案する。
取得したジェスチャー情報をカラー画像に変換し、ジェスチャー中の手関節位置の変化を平面に投影する。
ジェスチャーの分類はDeep Convolutional Neural Network (CNN)を用いて行われる。
論文 参考訳(メタデータ) (2020-03-03T11:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。