論文の概要: Comparing Controller With the Hand Gestures Pinch and Grab for Picking
Up and Placing Virtual Objects
- arxiv url: http://arxiv.org/abs/2202.10964v1
- Date: Tue, 22 Feb 2022 15:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 16:13:04.084174
- Title: Comparing Controller With the Hand Gestures Pinch and Grab for Picking
Up and Placing Virtual Objects
- Title(参考訳): 仮想物体のピック&プレースのためのハンドジェスチャとコントローラーの比較
- Authors: Alexander Sch\"afer, Gerd Reis, Didier Stricker
- Abstract要約: 現代のアプリケーションは、通常、単純なピンチジェスチャーを使ってオブジェクトをつかみ、移動させる。
オブジェクトを拾い上げ、他のジェスチャの実装を防ぐのは不自然なジェスチャーである。
仮想オブジェクトをつかみ、配置するための異なる実装を提案し、比較した。
- 参考スコア(独自算出の注目度): 81.5101473684021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grabbing virtual objects is one of the essential tasks for Augmented,
Virtual, and Mixed Reality applications. Modern applications usually use a
simple pinch gesture for grabbing and moving objects. However, picking up
objects by pinching has disadvantages. It can be an unnatural gesture to pick
up objects and prevents the implementation of other gestures which would be
performed with thumb and index. Therefore it is not the optimal choice for many
applications. In this work, different implementations for grabbing and placing
virtual objects are proposed and compared. Performance and accuracy of the
proposed techniques are measured and compared.
- Abstract(参考訳): 仮想オブジェクトのグラビングは、Augmented、Virtual、Mixed Realityアプリケーションに必要なタスクの1つである。
現代のアプリケーションは、通常、単純なピンチジェスチャーを使ってオブジェクトをつかみ、移動させる。
しかし、ピンチで物を拾うことには欠点がある。
これはオブジェクトを拾い上げる非自然なジェスチャーであり、親指とインデックスで実行される他のジェスチャーの実装を防止することができる。
したがって、多くのアプリケーションにとって最適な選択ではない。
本研究では,仮想オブジェクトの把持と配置の異なる実装を提案し,比較する。
提案手法の性能と精度を計測・比較した。
関連論文リスト
- AnyRotate: Gravity-Invariant In-Hand Object Rotation with Sim-to-Real Touch [9.606323817785114]
我々は,高密度のsim-to-realタッチを用いた重力不変多軸物体回転システムであるAnyRotateを提案する。
我々の定式化により、統一されたポリシーの訓練により、任意の回転軸に関する未知の物体を任意の方向で回転させることができる。
リッチな多指触覚センシングは不安定な把握を検知し、ポリシーの堅牢性を改善するリアクティブな振る舞いを提供する。
論文 参考訳(メタデータ) (2024-05-12T22:51:35Z) - DragAnything: Motion Control for Anything using Entity Representation [32.2017791506088]
DragAnythingは、制御可能なビデオ生成における任意のオブジェクトのモーション制御を実現する。
提案手法は従来の手法(例えばDragNUWA)を26%上回る。
論文 参考訳(メタデータ) (2024-03-12T08:57:29Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Design and Control of Roller Grasper V2 for In-Hand Manipulation [6.064252790182275]
指先で物体を操作できる新しい非人型ロボットグリーパーを提案する。
2自由度を持つ球状回転指先(DoF)により活性表面が達成される
さらにDoFは各指の基部にあり、指は大きさと形状の幅で物体をつかむことができる。
論文 参考訳(メタデータ) (2020-04-18T00:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。