論文の概要: UNOC: Understanding Occlusion for Embodied Presence in Virtual Reality
- arxiv url: http://arxiv.org/abs/2012.03680v1
- Date: Thu, 12 Nov 2020 09:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:51:46.472770
- Title: UNOC: Understanding Occlusion for Embodied Presence in Virtual Reality
- Title(参考訳): UNOC:仮想現実における身体的存在の排除を理解する
- Authors: Mathias Parger, Chengcheng Tang, Yuanlu Xu, Christopher Twigg,
Lingling Tao, Yijing Li, Robert Wang, and Markus Steinberger
- Abstract要約: 本稿では,内装体追跡のための新しいデータ駆動型フレームワークを提案する。
まず、体と指の両方の動作で、大規模なモーションキャプチャーデータセットを収集する。
次に, 被写体部を推定する深層ニューラルネットワークを学習し, 被写体部から被写体部を抽出し, 被写体部から被写体部を推定する。
- 参考スコア(独自算出の注目度): 12.349749717823736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking body and hand motions in the 3D space is essential for social and
self-presence in augmented and virtual environments. Unlike the popular 3D pose
estimation setting, the problem is often formulated as inside-out tracking
based on embodied perception (e.g., egocentric cameras, handheld sensors). In
this paper, we propose a new data-driven framework for inside-out body
tracking, targeting challenges of omnipresent occlusions in optimization-based
methods (e.g., inverse kinematics solvers). We first collect a large-scale
motion capture dataset with both body and finger motions using optical markers
and inertial sensors. This dataset focuses on social scenarios and captures
ground truth poses under self-occlusions and body-hand interactions. We then
simulate the occlusion patterns in head-mounted camera views on the captured
ground truth using a ray casting algorithm and learn a deep neural network to
infer the occluded body parts. In the experiments, we show that our method is
able to generate high-fidelity embodied poses by applying the proposed method
on the task of real-time inside-out body tracking, finger motion synthesis, and
3-point inverse kinematics.
- Abstract(参考訳): 3D空間における身体と手の動きの追跡は、拡張現実と仮想環境における社会的および自己存在にとって不可欠である。
一般的な3Dポーズ推定設定とは異なり、この問題は埋め込み認識(例えば、エゴセントリックカメラ、ハンドヘルドセンサー)に基づいて内部追跡として定式化されることが多い。
本稿では,最適化に基づく手法(例えば逆キネマティックスソルバ)において,オクルージョンを包含する課題を対象とする,体内追跡のための新しいデータ駆動フレームワークを提案する。
まず,光学マーカーと慣性センサを用いて,身体と指の両動作を用いた大規模モーションキャプチャデータセットを収集した。
このデータセットは、社会的シナリオに焦点をあて、自己排他的・身体的相互作用の下での真実のポーズを捉えます。
次に, 頭部搭載カメラの咬合パターンをレイキャスティングアルゴリズムを用いてシミュレートし, 深層ニューラルネットワークを学習し, 被写体部位を推定する。
実験により,本手法は実時間内外体追跡,指の動き合成,3点逆運動学のタスクに提案手法を適用し,高忠実な体格ポーズを生成することができることを示した。
関連論文リスト
- Hybrid 3D Human Pose Estimation with Monocular Video and Sparse IMUs [15.017274891943162]
モノクロビデオからの時間的3Dポーズ推定は、人間中心のコンピュータビジョンにおいて難しい課題である。
情報ソースを補完するために慣性センサが導入された。
物理的に合理的な3Dポーズを生成するために、異種センサデータを統合することは依然として困難である。
論文 参考訳(メタデータ) (2024-04-27T09:02:42Z) - 3D Human Scan With A Moving Event Camera [7.734104968315144]
イベントカメラは高時間分解能と高ダイナミックレンジの利点がある。
本稿では,3次元ポーズ推定とヒューマンメッシュ復元のためのイベントベース手法を提案する。
論文 参考訳(メタデータ) (2024-04-12T14:34:24Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - Smooth head tracking for virtual reality applications [0.0]
本稿では,仮想3次元環境と人間と機械のリアルタイムインタラクションのための新しいヘッドトラッキングソリューションを提案する。
このソリューションは、RGBDデータを利用して、ユーザの頭の動きに応じて仮想カメラのポーズを計算する。
論文 参考訳(メタデータ) (2021-10-27T05:47:21Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。