論文の概要: Ray3D: ray-based 3D human pose estimation for monocular absolute 3D
localization
- arxiv url: http://arxiv.org/abs/2203.11471v1
- Date: Tue, 22 Mar 2022 05:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 13:55:39.877634
- Title: Ray3D: ray-based 3D human pose estimation for monocular absolute 3D
localization
- Title(参考訳): ray3d: 単眼的絶対3次元位置推定のためのレイベース3次元人物ポーズ推定
- Authors: Yu Zhan, Fenghai Li, Renliang Weng, Wongun Choi
- Abstract要約: キャリブレーションカメラを用いた一眼レフ3D(Ray3D)絶対姿勢推定法を提案する。
我々の手法は既存の最先端モデルよりも大幅に優れている。
- 参考スコア(独自算出の注目度): 3.5379706873065917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose a novel monocular ray-based 3D (Ray3D) absolute
human pose estimation with calibrated camera. Accurate and generalizable
absolute 3D human pose estimation from monocular 2D pose input is an ill-posed
problem. To address this challenge, we convert the input from pixel space to 3D
normalized rays. This conversion makes our approach robust to camera intrinsic
parameter changes. To deal with the in-the-wild camera extrinsic parameter
variations, Ray3D explicitly takes the camera extrinsic parameters as an input
and jointly models the distribution between the 3D pose rays and camera
extrinsic parameters. This novel network design is the key to the outstanding
generalizability of Ray3D approach. To have a comprehensive understanding of
how the camera intrinsic and extrinsic parameter variations affect the accuracy
of absolute 3D key-point localization, we conduct in-depth systematic
experiments on three single person 3D benchmarks as well as one synthetic
benchmark. These experiments demonstrate that our method significantly
outperforms existing state-of-the-art models. Our code and the synthetic
dataset are available at https://github.com/YxZhxn/Ray3D .
- Abstract(参考訳): 本稿では,キャリブレーションカメラを用いた,新しい単眼線ベース3d (ray3d) 絶対人間のポーズ推定法を提案する。
単眼2次元ポーズ入力からの高精度で一般化可能な絶対3次元ポーズ推定は不適切な問題である。
この課題に対処するために、入力をピクセル空間から3d正規化線に変換する。
この変換は、カメラ固有のパラメータの変更に対して、我々のアプローチを堅牢にする。
カメラ外在パラメータのバリエーションに対処するため、Ray3Dはカメラ外在パラメータを入力として用いて、3Dポーズ線とカメラ外在パラメータの分布を共同でモデル化する。
この新しいネットワーク設計は、Ray3Dアプローチの卓越した一般化の鍵となる。
カメラ内外パラメータ変動が絶対3次元キーポイント位置決めの精度に与える影響を包括的に理解するために,3人の個人3次元ベンチマークと1つの合成ベンチマークについて詳細な系統的実験を行った。
これらの実験により,本手法が既存の最先端モデルを大きく上回ることを示した。
私たちのコードと合成データセットは、https://github.com/yxzhxn/ray3dで利用可能です。
関連論文リスト
- Director3D: Real-world Camera Trajectory and 3D Scene Generation from Text [61.9973218744157]
実世界の3Dシーンと適応カメラトラジェクトリの両方を生成するように設計された,堅牢なオープンワールドテキスト・ツー・3D生成フレームワークであるDirector3Dを紹介する。
Director3Dは既存の手法よりも優れており、実世界の3D生成において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-06-25T14:42:51Z) - X-Ray: A Sequential 3D Representation For Generation [54.160173837582796]
我々は、X線スキャンにインスパイアされた新しい3Dシーケンシャル表現であるX線を紹介する。
X線は3Dオブジェクトを異なる層で一連の表面フレームに変換するため、画像から3Dモデルを生成するのに適している。
論文 参考訳(メタデータ) (2024-04-22T16:40:11Z) - Any2Point: Empowering Any-modality Large Models for Efficient 3D Understanding [83.63231467746598]
我々は,Any2Pointというパラメータ効率のよい大規模モデル(ビジョン,言語,音声)を3次元理解に活用する手法を紹介した。
入力された3Dポイントと元の1Dまたは2D位置との相関関係を示す3D-to-any (1Dまたは2D)仮想プロジェクション戦略を提案する。
論文 参考訳(メタデータ) (2024-04-11T17:59:45Z) - Tame a Wild Camera: In-the-Wild Monocular Camera Calibration [12.55056916519563]
以前のモノクロカメラのキャリブレーション法は、特定の3Dオブジェクトやそれ以前の強力な幾何学に依存していた。
提案手法は仮定フリーであり,Def(Degree-of-Freedom)固有のパラメータを4ドル(約4,400円)で校正する。
画像操作検出と復元,2次元ポーズ推定,3次元センシングにおける下流の応用を実証する。
論文 参考訳(メタデータ) (2023-06-19T14:55:26Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - 6D Object Pose Estimation from Approximate 3D Models for Orbital
Robotics [19.64111218032901]
単一画像から物体の6次元ポーズを推定する新しい手法を提案する。
画素毎に3次元モデル座標を回帰する高密度な2次元から3次元対応予測器を用いる。
提案手法は,SPEED+データセット上での最先端性能を実現し,SPEC2021ポストモーテムコンペティションで優勝した。
論文 参考訳(メタデータ) (2023-03-23T13:18:05Z) - DIREG3D: DIrectly REGress 3D Hands from Multiple Cameras [0.22940141855172028]
DIREG3Dは、カメラパラメータ、3D幾何学、中間2Dキュー、視覚情報を利用して、ハンドメッシュモデルを正確に表現するためのパラメータを回帰することができる。
異なる視点から特徴を融合させることにより、これらの結果をマルチビューカメラ設定に拡張する。
論文 参考訳(メタデータ) (2022-01-26T21:03:56Z) - FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection [78.00922683083776]
一般的な2D検出器をこの3Dタスクで動作させることは簡単ではない。
本報告では,完全畳み込み型単段検出器を用いた手法を用いてこの問題を考察する。
私たちのソリューションは、NeurIPS 2020のnuScenes 3D検出チャレンジのすべてのビジョンのみの方法の中で1位を獲得します。
論文 参考訳(メタデータ) (2021-04-22T09:35:35Z) - HybrIK: A Hybrid Analytical-Neural Inverse Kinematics Solution for 3D
Human Pose and Shape Estimation [39.67289969828706]
本稿では,体メッシュ推定と3次元キーポイント推定のギャップを埋めるために,新しいハイブリッド逆キネマティクスソリューション(HybrIK)を提案する。
HybrIKは、正確な3D関節を相対的なボディ部分回転に変換し、3Dボディーメッシュを再構築する。
その結果,HybrIKは3次元ポーズの精度とパラメトリックな人間の身体構造の両方を保っていることがわかった。
論文 参考訳(メタデータ) (2020-11-30T10:32:30Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。