論文の概要: I2L-MeshNet: Image-to-Lixel Prediction Network for Accurate 3D Human
Pose and Mesh Estimation from a Single RGB Image
- arxiv url: http://arxiv.org/abs/2008.03713v2
- Date: Sun, 1 Nov 2020 11:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:27:07.361998
- Title: I2L-MeshNet: Image-to-Lixel Prediction Network for Accurate 3D Human
Pose and Mesh Estimation from a Single RGB Image
- Title(参考訳): I2L-MeshNet:1枚のRGB画像からの3次元人物の正確な画像とメッシュ推定のための画像と画素予測ネットワーク
- Authors: Gyeongsik Moon and Kyoung Mu Lee
- Abstract要約: I2L-MeshNetを提案する。
提案したI2L-MeshNetは、パラメータを直接回帰するのではなく、各メッシュ座標の1Dヒートマップ上のリセル当たりの確率を予測する。
我々のリセルベースの1Dヒートマップは入力画像の空間的関係を保存し、予測の不確かさをモデル化する。
- 参考スコア(独自算出の注目度): 79.040930290399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the previous image-based 3D human pose and mesh estimation methods
estimate parameters of the human mesh model from an input image. However,
directly regressing the parameters from the input image is a highly non-linear
mapping because it breaks the spatial relationship between pixels in the input
image. In addition, it cannot model the prediction uncertainty, which can make
training harder. To resolve the above issues, we propose I2L-MeshNet, an
image-to-lixel (line+pixel) prediction network. The proposed I2L-MeshNet
predicts the per-lixel likelihood on 1D heatmaps for each mesh vertex
coordinate instead of directly regressing the parameters. Our lixel-based 1D
heatmap preserves the spatial relationship in the input image and models the
prediction uncertainty. We demonstrate the benefit of the image-to-lixel
prediction and show that the proposed I2L-MeshNet outperforms previous methods.
The code is publicly available https://github.com/mks0601/I2L-MeshNet_RELEASE.
- Abstract(参考訳): 従来の画像に基づく3次元人物ポーズおよびメッシュ推定手法のほとんどは、入力画像から人間のメッシュモデルのパラメータを推定する。
しかし、入力画像中の画素間の空間的関係を断ち切るため、入力画像からパラメータを直接退避させることは非常に非線形なマッピングである。
さらに、予測の不確実性をモデル化できないため、トレーニングを難しくすることができる。
上記の問題を解決するために,イメージ・トゥ・リッセル(ライン+ピクセル)予測ネットワークであるI2L-MeshNetを提案する。
提案するi2l-meshnetは、パラメータを直接レグレッションするのではなく、各メッシュ頂点座標の1次元ヒートマップにおけるリクセル当たりの確率を予測する。
我々のリセルベースの1Dヒートマップは入力画像の空間的関係を保存し、予測の不確かさをモデル化する。
画像-リセル予測の利点を実証し,提案したI2L-MeshNetが従来の手法より優れていることを示す。
コードはhttps://github.com/mks0601/I2L-MeshNet_RELEASEで公開されている。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - Personalized 3D Human Pose and Shape Refinement [19.082329060985455]
回帰に基づく手法は3次元人間のポーズと形状推定の分野を支配してきた。
本稿では,初期人間のモデル推定値と対応する画像との密接な対応性を構築することを提案する。
提案手法は画像モデルアライメントの改善だけでなく,3次元精度の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-18T10:13:53Z) - VQ-HPS: Human Pose and Shape Estimation in a Vector-Quantized Latent Space [43.368963897752664]
この研究は、ヒューマン・ポースと形状推定の問題に対処する新しいパラダイムを導入している。
身体モデルパラメータを予測する代わりに、提案した離散潜在表現を予測することに重点を置いている。
提案モデルであるVQ-HPSはメッシュの離散潜在表現を予測する。
論文 参考訳(メタデータ) (2023-12-13T17:08:38Z) - Adversarial Parametric Pose Prior [106.12437086990853]
我々は、SMPLパラメータを現実的なポーズを生成する値に制限する事前学習を行う。
得られた先行学習は実データ分布の多様性をカバーし、2次元キーポイントからの3次元再構成の最適化を容易にし、画像からの回帰に使用する場合のポーズ推定精度を向上することを示す。
論文 参考訳(メタデータ) (2021-12-08T10:05:32Z) - 3D Human Pose and Shape Regression with Pyramidal Mesh Alignment
Feedback Loop [128.07841893637337]
回帰に基づく手法は最近、単眼画像からヒトのメッシュを再構成する有望な結果を示した。
パラメータの小さな偏差は、推定メッシュと画像のエビデンスの間に顕著な不一致を引き起こす可能性がある。
本稿では,特徴ピラミッドを活用し,予測パラメータを補正するために,ピラミッドメッシュアライメントフィードバック(pymaf)ループを提案する。
論文 参考訳(メタデータ) (2021-03-30T17:07:49Z) - LoopReg: Self-supervised Learning of Implicit Surface Correspondences,
Pose and Shape for 3D Human Mesh Registration [123.62341095156611]
LoopRegは、スキャンのコーパスを一般的な3Dモデルに登録するエンドツーエンドの学習フレームワークである。
ニューラルネットワークによってパラメータ化された後方マップは、スキャンポイント毎から人間のモデルの表面への対応を予測する。
人間のモデルによってパラメータ化されたフォワードマップは、モデルパラメータ(目的と形状)に基づいて対応するポイントをスキャンに変換する。
論文 参考訳(メタデータ) (2020-10-23T14:39:50Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z) - JGR-P2O: Joint Graph Reasoning based Pixel-to-Offset Prediction Network
for 3D Hand Pose Estimation from a Single Depth Image [28.753759115780515]
最先端の単一深度画像に基づく3次元手ポーズ推定法は、密集した予測に基づいている。
上記の問題に対処するために, 画素単位の予測に基づく新しい手法を提案する。
提案モデルは2次元完全畳み込みネットワークのバックボーンで実装され,約1.4Mのパラメータしか持たない。
論文 参考訳(メタデータ) (2020-07-09T08:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。