論文の概要: Recent Advances in 3D Object and Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2006.05927v1
- Date: Wed, 10 Jun 2020 16:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 06:00:34.035710
- Title: Recent Advances in 3D Object and Hand Pose Estimation
- Title(参考訳): 3Dオブジェクトの最近の進歩とハンドポース推定
- Authors: Vincent Lepetit
- Abstract要約: 3Dオブジェクトと手ポーズ推定は拡張現実にとって大きな可能性を秘めており、具体的なインターフェイス、自然なインターフェイス、現実世界と仮想世界の境界の曖昧化を可能にしている。
本章では, カメラを用いた3次元物体・手動ポーズ推定の最近の展開について述べるとともに, その能力, 限界, 今後の発展について論じる。
- 参考スコア(独自算出の注目度): 27.91462409787056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object and hand pose estimation have huge potentials for Augmented
Reality, to enable tangible interfaces, natural interfaces, and blurring the
boundaries between the real and virtual worlds. In this chapter, we present the
recent developments for 3D object and hand pose estimation using cameras, and
discuss their abilities and limitations and the possible future development of
the field.
- Abstract(参考訳): 3dオブジェクトと手の位置推定は、現実の世界と仮想世界の境界を曖昧にするために、拡張現実にとって大きな可能性を秘めている。
本章では, カメラを用いた3次元物体・手動ポーズ推定の最近の展開について述べるとともに, その能力, 限界, 今後の発展について論じる。
関連論文リスト
- Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - 3D-VLA: A 3D Vision-Language-Action Generative World Model [68.0388311799959]
最近の視覚言語アクション(VLA)モデルは2D入力に依存しており、3D物理世界の広い領域との統合は欠如している。
本稿では,3次元知覚,推論,行動をシームレスにリンクする新しい基礎モデルのファウンデーションモデルを導入することにより,3D-VLAを提案する。
本実験により,3D-VLAは実環境における推論,マルチモーダル生成,計画能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-03-14T17:58:41Z) - HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - SHOWMe: Benchmarking Object-agnostic Hand-Object 3D Reconstruction [13.417086460511696]
96本の動画からなるSHOWMeデータセットについて,実物と詳細な3Dテクスチャメッシュで注釈付けした。
我々は、手の動きがビデオシーケンス全体を通して一定である厳密な手オブジェクトのシナリオを考察する。
この仮定により、SHOWMeの画像シーケンスにサブミリメートル精度の基底3Dスキャンを登録できる。
論文 参考訳(メタデータ) (2023-09-19T16:48:29Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - UmeTrack: Unified multi-view end-to-end hand tracking for VR [34.352638006495326]
空間における3Dハンドポーズのリアルタイム追跡は難しい問題であり、VRインタラクションにおいて重要な役割を果たす。
本稿では,世界空間における3Dハンドポーズを直接予測する多視点多フレームハンドトラッキングのための,エンドツーエンドの識別可能な統合フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:09:21Z) - HPERL: 3D Human Pose Estimation from RGB and LiDAR [10.303618438296981]
本稿では,RGBとLiDARを用いたエンドツーエンドアーキテクチャを提案し,絶対的な3次元人間のポーズを前例のない精度で予測する。
また,PedXの2次元ポーズアノテーションを用いて3次元予測を生成する手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T08:09:49Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。