論文の概要: DIREG3D: DIrectly REGress 3D Hands from Multiple Cameras
- arxiv url: http://arxiv.org/abs/2201.11187v1
- Date: Wed, 26 Jan 2022 21:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-29 04:50:18.439603
- Title: DIREG3D: DIrectly REGress 3D Hands from Multiple Cameras
- Title(参考訳): DIREG3D:複数のカメラから3Dハンドを正確に取り出す
- Authors: Ashar Ali, Upal Mahbub, Gokce Dane, Gerhard Reitmayr
- Abstract要約: DIREG3Dは、カメラパラメータ、3D幾何学、中間2Dキュー、視覚情報を利用して、ハンドメッシュモデルを正確に表現するためのパラメータを回帰することができる。
異なる視点から特徴を融合させることにより、これらの結果をマルチビューカメラ設定に拡張する。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present DIREG3D, a holistic framework for 3D Hand Tracking.
The proposed framework is capable of utilizing camera intrinsic parameters, 3D
geometry, intermediate 2D cues, and visual information to regress parameters
for accurately representing a Hand Mesh model. Our experiments show that
information like the size of the 2D hand, its distance from the optical center,
and radial distortion is useful for deriving highly reliable 3D poses in camera
space from just monocular information. Furthermore, we extend these results to
a multi-view camera setup by fusing features from different viewpoints.
- Abstract(参考訳): 本稿では,3次元ハンドトラッキングのための総合的なフレームワークであるDIREG3Dを提案する。
提案するフレームワークは,カメラ固有のパラメータ,3次元形状,中間2次元キュー,視覚情報をレグレッションパラメータに活用して,ハンドメッシュモデルを正確に表現することができる。
実験の結果,2次元手の大きさ,光学中心からの距離,放射歪みなどの情報は,単分子情報から高信頼な3次元ポーズを導出するのに有用であることがわかった。
さらに, 異なる視点の特徴を融合して, マルチビューカメラのセットアップにこれらの結果を拡張した。
関連論文リスト
- SYM3D: Learning Symmetric Triplanes for Better 3D-Awareness of GANs [5.84660008137615]
SYM3Dは、自然と人造の物体で見られる主観対称性構造を活用するために設計された、新しい3D対応のGANである。
単視点画像のみを訓練しても, 詳細な形状やテクスチャを捉える上で, 優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-10T16:24:07Z) - Self-learning Canonical Space for Multi-view 3D Human Pose Estimation [57.969696744428475]
マルチビュー3次元人間のポーズ推定は、自然に単一ビューのポーズ推定よりも優れている。
これらの情報の正確な注釈を得るのは難しい。
完全自己管理型多視点アグリゲーションネットワーク(CMANet)を提案する。
CMANetは、大規模で質的な分析において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-19T04:54:59Z) - MagicDrive: Street View Generation with Diverse 3D Geometry Control [82.69871576797166]
多様な3D幾何学制御を提供する新しいストリートビュー生成フレームワークであるMagicDriveを紹介した。
私たちの設計では、複数のカメラビュー間の一貫性を確保するために、クロスビューアテンションモジュールが組み込まれています。
論文 参考訳(メタデータ) (2023-10-04T06:14:06Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Ray3D: ray-based 3D human pose estimation for monocular absolute 3D
localization [3.5379706873065917]
キャリブレーションカメラを用いた一眼レフ3D(Ray3D)絶対姿勢推定法を提案する。
我々の手法は既存の最先端モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2022-03-22T05:42:31Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。