論文の概要: Residual Pose: A Decoupled Approach for Depth-based 3D Human Pose
Estimation
- arxiv url: http://arxiv.org/abs/2011.05010v1
- Date: Tue, 10 Nov 2020 10:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:40:25.522257
- Title: Residual Pose: A Decoupled Approach for Depth-based 3D Human Pose
Estimation
- Title(参考訳): 残差ポーズ:深度に基づく3次元ポーズ推定のための分離アプローチ
- Authors: Angel Mart\'inez-Gonz\'alez, Michael Villamizar, Olivier Can\'evet and
Jean-Marc Odobez
- Abstract要約: 我々は,CNNによる信頼度の高い2次元ポーズ推定の最近の進歩を活用し,深度画像から人物の3次元ポーズを推定する。
提案手法は2つの公開データセットの精度と速度の両面で非常に競争力のある結果が得られる。
- 参考スコア(独自算出の注目度): 18.103595280706593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to leverage recent advances in reliable 2D pose estimation with
Convolutional Neural Networks (CNN) to estimate the 3D pose of people from
depth images in multi-person Human-Robot Interaction (HRI) scenarios. Our
method is based on the observation that using the depth information to obtain
3D lifted points from 2D body landmark detections provides a rough estimate of
the true 3D human pose, thus requiring only a refinement step. In that line our
contributions are threefold. (i) we propose to perform 3D pose estimation from
depth images by decoupling 2D pose estimation and 3D pose refinement; (ii) we
propose a deep-learning approach that regresses the residual pose between the
lifted 3D pose and the true 3D pose; (iii) we show that despite its simplicity,
our approach achieves very competitive results both in accuracy and speed on
two public datasets and is therefore appealing for multi-person HRI compared to
recent state-of-the-art methods.
- Abstract(参考訳): 我々は,畳み込みニューラルネットワーク(CNN)を用いた信頼性2次元ポーズ推定の最近の進歩を活用し,多対人ロボットインタラクション(HRI)シナリオにおける深度画像から人の3次元ポーズを推定することを提案する。
本手法は, 深度情報を用いて2次元物体のランドマーク検出から3次元浮揚点を得ることにより, 真の3次元人間のポーズを大まかに推定し, 改良段階を要した。
その意味での私たちの貢献は3倍です。
i)2次元ポーズ推定と3次元ポーズ補正を分離して深度画像から3次元ポーズ推定を行うことを提案する。
二) 持ち上げられた3dポーズと真の3dポーズとの間の残留ポーズを後退させるディープラーニングアプローチを提案する。
3)本手法は,その単純さにもかかわらず,2つの公開データセットの精度と速度の両面で非常に競争力のある結果が得られることを示し,近年の最先端手法と比較して,多人数HRIをアピールしている。
関連論文リスト
- Unsupervised Multi-Person 3D Human Pose Estimation From 2D Poses Alone [4.648549457266638]
本研究は,教師なし多人数2D-3Dポーズ推定の実現可能性について検討した最初の研究の1つである。
本手法では,各被験者の2次元ポーズを3次元に独立に持ち上げ,それらを共有3次元座標系で組み合わせる。
これにより、ポーズの正確な3D再構成を検索することができる。
論文 参考訳(メタデータ) (2023-09-26T11:42:56Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - Diffusion-Based 3D Human Pose Estimation with Multi-Hypothesis
Aggregation [64.874000550443]
ジョイントワイズ・リジェクション・ベース・マルチハイブリッド・アグリゲーション(JPMA)を用いた拡散型3次元ポス推定法を提案する。
提案したJPMAは,D3DPが生成する複数の仮説を1つの3次元ポーズにまとめて実用的に利用する。
提案手法は, 最先端の決定論的アプローチと確率論的アプローチをそれぞれ1.5%, 8.9%上回った。
論文 参考訳(メタデータ) (2023-03-21T04:00:47Z) - Learning to Estimate 3D Human Pose from Point Cloud [13.27496851711973]
本稿では,複雑な人体構造物の表面をモデル化するための入力データとして,点雲データを用いた3次元ポーズ推定のための深層人体ポーズネットワークを提案する。
2つの公開データセットに対する実験により,従来の最先端手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2022-12-25T14:22:01Z) - SPGNet: Spatial Projection Guided 3D Human Pose Estimation in Low
Dimensional Space [14.81199315166042]
本研究では,多次元再投影と教師あり学習を混合した3次元人間のポーズ推定手法を提案する。
提案手法は,データセットHuman3.6Mの推定結果に基づいて,定性的にも定量的にも,多くの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-04T00:51:00Z) - PONet: Robust 3D Human Pose Estimation via Learning Orientations Only [116.1502793612437]
本稿では,学習向きのみを用いて3次元ポーズを頑健に推定できる新しいPose Orientation Net(PONet)を提案する。
PONetは、局所的な画像証拠を利用して、これらの手足の3D方向を推定し、3Dポーズを復元する。
我々は,Human3.6M,MPII,MPI-INF-3DHP,3DPWを含む複数のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2021-12-21T12:48:48Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Leveraging Temporal Joint Depths for Improving 3D Human Pose Estimation
in Video [2.7501248535328306]
本稿では,映像の各フレームに3次元のポーズを推定し,時間的情報を考慮してそれを洗練することを提案する。
提案手法は, 接合深さのあいまいさを低減し, 3次元ポーズ推定精度を向上させる。
論文 参考訳(メタデータ) (2020-11-04T08:23:41Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Fusing Wearable IMUs with Multi-View Images for Human Pose Estimation: A
Geometric Approach [76.10879433430466]
多視点画像と人手足に装着したIMUから3次元人間のポーズを推定する。
まず2つの信号から2Dのポーズを検出し、3D空間に持ち上げる。
単純な2段階のアプローチは、公開データセット上の大きなマージンによる最先端のエラーを低減する。
論文 参考訳(メタデータ) (2020-03-25T00:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。