論文の概要: Human Motion Tracking by Registering an Articulated Surface to 3-D
Points and Normals
- arxiv url: http://arxiv.org/abs/2012.04514v1
- Date: Tue, 8 Dec 2020 16:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 04:40:44.648842
- Title: Human Motion Tracking by Registering an Articulated Surface to 3-D
Points and Normals
- Title(参考訳): 関節面を3次元点と正規値に登録した人間の運動追跡
- Authors: Radu Horaud, Matti Niskanen, Guillaume Dewaele, and Edmond Boyer
- Abstract要約: 表面を3次元データに登録することで,人間の運動追跡の問題に対処する。
運動パラメータと自由運動パラメータの推定値の最大値の2つを反復的に計算する手法を提案する。
本手法は,不完全なシルエットから収集したスパースな視覚形状データを用いて人間の動きを追跡する手法である。
- 参考スコア(独自算出の注目度): 32.05089643043136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the problem of human motion tracking by registering a surface to
3-D data. We propose a method that iteratively computes two things: Maximum
likelihood estimates for both the kinematic and free-motion parameters of a
kinematic human-body representation, as well as probabilities that the data are
assigned either to a body part, or to an outlier cluster. We introduce a new
metric between observed points and normals on one side, and a parameterized
surface on the other side, the latter being defined as a blending over a set of
ellipsoids. We claim that this metric is well suited when one deals with either
visual-hull or visual-shape observations. We illustrate the method by tracking
human motions using sparse visual-shape data (3-D surface points and normals)
gathered from imperfect silhouettes.
- Abstract(参考訳): 表面を3次元データに登録することで,人間の運動追跡の問題に対処する。
本研究では,人体表象の運動パラメータと自由運動パラメータの両方の最大推定値と,そのデータが体の一部か外れたクラスタに割り当てられる確率の2つを反復的に計算する手法を提案する。
観測された点と正規点の間の新しい計量と、もう一方の面のパラメータ化曲面を導入し、後者は楕円体の集合上のブレンドとして定義される。
この測定基準は、視界と視界のどちらの観察にも適していると我々は主張する。
本手法は,不完全なシルエットから収集したスパースな視覚形状データ(3次元表面点と正規値)を用いて,人間の動きを追跡する手法である。
関連論文リスト
- Contour Context: Abstract Structural Distribution for 3D LiDAR Loop
Detection and Metric Pose Estimation [31.968749056155467]
本稿では,高精度な3DoF距離ポーズ推定を用いた簡易かつ効果的かつ効率的なトポロジカルループ閉包検出パイプラインを提案する。
我々は,3次元LiDAR点から投影されるBEV像を構造層分布として解釈する。
検索キーは、層状KD木でインデックスされたデータベースの検索を高速化するように設計されている。
論文 参考訳(メタデータ) (2023-02-13T07:18:24Z) - Learning Visibility for Robust Dense Human Body Estimation [78.37389398573882]
2D画像から3Dのポーズと形状を推定することは、非常に難しい課題だ。
部分的な観察に頑健な高密度な人体推定を学習する。
我々は、高密度UV通信から可視性ラベルの擬似基底構造を取得し、3次元座標とともに可視性を予測するニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-08-23T00:01:05Z) - Neural Capture of Animatable 3D Human from Monocular Video [38.974181971541846]
本稿では,モノクラービデオ入力からアニマタブルな3次元人間の表現を構築するための新しいパラダイムを提案する。
本手法は,メッシュをベースとしたパラメトリックな3次元人体モデルを用いた動的ニューラルレージアンス場(NeRF)に基づく。
論文 参考訳(メタデータ) (2022-08-18T09:20:48Z) - Surface-Aligned Neural Radiance Fields for Controllable 3D Human
Synthesis [4.597864989500202]
本稿では,多視点RGBビデオから暗黙の3次元モデルを再構築する手法を提案する。
本手法は,人体メッシュの表面から,メッシュ表面点と署名された距離のニューラルシーン表現を定義する。
論文 参考訳(メタデータ) (2022-01-05T16:25:32Z) - Tracking People by Predicting 3D Appearance, Location & Pose [78.97070307547283]
私たちはまず、1つのフレームから3Dまで、堅牢な方法で人々を持ち上げます。
人を追跡すると、時間とともに3Dの観察結果をトラックレット表現で収集する。
これらのモデルを用いて、トラックレットの将来状態を予測します。
論文 参考訳(メタデータ) (2021-12-08T18:57:15Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Tracking People with 3D Representations [78.97070307547283]
ビデオ中の複数の人物を追跡する新しい手法を提案する。
従来の2次元表現を用いたアプローチとは違って,3次元空間における人物の3次元表現を用いる。
これらの環境下での3次元表現は2次元表現よりも効果的であることがわかった。
論文 参考訳(メタデータ) (2021-11-15T16:15:21Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。