論文の概要: HDNet: Human Depth Estimation for Multi-Person Camera-Space Localization
- arxiv url: http://arxiv.org/abs/2007.08943v1
- Date: Fri, 17 Jul 2020 12:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:15:50.303168
- Title: HDNet: Human Depth Estimation for Multi-Person Camera-Space Localization
- Title(参考訳): HDNet:マルチパーソンカメラ空間ローカライゼーションのための人間の深度推定
- Authors: Jiahao Lin, Gim Hee Lee
- Abstract要約: 本稿では,根の絶対的局所化のためのエンドツーエンドフレームワークであるHuman Depth Estimation Network (HDNet)を提案する。
関節間の特徴伝達に骨格ベースのグラフニューラルネットワーク(GNN)を用いる。
我々は,2つのベンチマークデータセットを用いて,ルートジョイントローカライゼーションとルート相対的な3次元ポーズ推定タスクについて,HDNetの評価を行った。
- 参考スコア(独自算出の注目度): 83.57863764231655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current works on multi-person 3D pose estimation mainly focus on the
estimation of the 3D joint locations relative to the root joint and ignore the
absolute locations of each pose. In this paper, we propose the Human Depth
Estimation Network (HDNet), an end-to-end framework for absolute root joint
localization in the camera coordinate space. Our HDNet first estimates the 2D
human pose with heatmaps of the joints. These estimated heatmaps serve as
attention masks for pooling features from image regions corresponding to the
target person. A skeleton-based Graph Neural Network (GNN) is utilized to
propagate features among joints. We formulate the target depth regression as a
bin index estimation problem, which can be transformed with a soft-argmax
operation from the classification output of our HDNet. We evaluate our HDNet on
the root joint localization and root-relative 3D pose estimation tasks with two
benchmark datasets, i.e., Human3.6M and MuPoTS-3D. The experimental results
show that we outperform the previous state-of-the-art consistently under
multiple evaluation metrics. Our source code is available at:
https://github.com/jiahaoLjh/HumanDepth.
- Abstract(参考訳): マルチパーソン3次元ポーズ推定に関する現在の研究は、主にルートジョイントに対する3次元関節位置の推定に焦点を当て、各ポーズの絶対位置を無視している。
本稿では,カメラ座標空間における絶対的根結合位置推定のためのエンドツーエンドフレームワークであるHuman Depth Estimation Network (HDNet)を提案する。
HDNetはまず、関節のヒートマップで2次元の人間のポーズを推定します。
これらの推定熱マップは、対象人物に対応する画像領域から特徴をプールするための注意マスクとして機能する。
関節間の特徴伝達に骨格ベースのグラフニューラルネットワーク(GNN)を用いる。
対象深度回帰を,hdnetの分類出力からソフトargmax演算で変換可能なbin指数推定問題として定式化する。
2つのベンチマークデータセット、すなわちhuman3.6mとmupots-3dを用いて、歯根関節位置と歯根関係3dポーズ推定タスクにおけるhdnetを評価した。
実験の結果,複数の評価基準において,先行研究の成果を一貫して上回っていることがわかった。
ソースコードはhttps://github.com/jiahaoljh/humandepth.com/で入手できます。
関連論文リスト
- Dual networks based 3D Multi-Person Pose Estimation from Monocular Video [42.01876518017639]
複数人の3Dポーズ推定はシングルポーズ推定よりも難しい。
既存のトップダウンとボトムアップのアプローチでは、推定が検出エラーに悩まされる。
我々は,トップダウンアプローチとボトムアップアプローチを統合して,その強みを活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T08:53:38Z) - GCNDepth: Self-supervised Monocular Depth Estimation based on Graph
Convolutional Network [11.332580333969302]
この研究は、深度マップの量的および質的な理解を高めるために、一連の改善を伴う新しいソリューションをもたらす。
グラフ畳み込みネットワーク(GCN)は、非ユークリッドデータ上の畳み込みを処理でき、位相構造内の不規則な画像領域に適用することができる。
提案手法は,公的なKITTIおよびMake3Dデータセットに対して,高い予測精度で89%の精度で同等かつ有望な結果を与える。
論文 参考訳(メタデータ) (2021-12-13T16:46:25Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - On the role of depth predictions for 3D human pose estimation [0.04199844472131921]
推定深度値とともに2dジョイント位置を入力とし、3d位置をカメラ座標で予測するシステムを構築します。
結果は低次元の入力を受け入れ、リアルタイムシステムに統合されるニューラルネットワークで生成されます。
本システムは市販の2dポーズ検出器と深度マップ予測器と組み合わせて野生での3dポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-03-03T16:51:38Z) - Beyond Weak Perspective for Monocular 3D Human Pose Estimation [6.883305568568084]
単眼映像からの3次元関節位置と方向予測の課題を考察する。
まず,市販のポーズ推定アルゴリズムを用いて2次元関節位置を推定する。
次に、初期パラメータを受信するSMPLifyアルゴリズムに準拠する。
論文 参考訳(メタデータ) (2020-09-14T16:23:14Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z) - Multi-Person Absolute 3D Human Pose Estimation with Weak Depth
Supervision [0.0]
弱教師付きでRGB-D画像を追加してトレーニングできるネットワークを導入する。
我々のアルゴリズムは、単眼で、多人、絶対的なポーズ推定器である。
アルゴリズムを複数のベンチマークで評価し,一貫した誤差率の向上を示した。
論文 参考訳(メタデータ) (2020-04-08T13:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。