論文の概要: Learning Nonparametric Human Mesh Reconstruction from a Single Image
without Ground Truth Meshes
- arxiv url: http://arxiv.org/abs/2003.00052v1
- Date: Fri, 28 Feb 2020 20:30:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:31:13.747280
- Title: Learning Nonparametric Human Mesh Reconstruction from a Single Image
without Ground Truth Meshes
- Title(参考訳): 非パラメトリックな人間のメッシュ再構成を1つの画像から学習する
- Authors: Kevin Lin, Lijuan Wang, Ying Jin, Zicheng Liu, Ming-Ting Sun
- Abstract要約: そこで本研究では,人間のメッシュ再構築を基礎となる真理メッシュを使わずに学習する手法を提案する。
これはグラフ畳み込みニューラルネットワーク(Graph CNN)の損失関数に2つの新しい用語を導入することで実現される。
- 参考スコア(独自算出の注目度): 56.27436157101251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonparametric approaches have shown promising results on reconstructing 3D
human mesh from a single monocular image. Unlike previous approaches that use a
parametric human model like skinned multi-person linear model (SMPL), and
attempt to regress the model parameters, nonparametric approaches relax the
heavy reliance on the parametric space. However, existing nonparametric methods
require ground truth meshes as their regression target for each vertex, and
obtaining ground truth mesh labels is very expensive. In this paper, we propose
a novel approach to learn human mesh reconstruction without any ground truth
meshes. This is made possible by introducing two new terms into the loss
function of a graph convolutional neural network (Graph CNN). The first term is
the Laplacian prior that acts as a regularizer on the reconstructed mesh. The
second term is the part segmentation loss that forces the projected region of
the reconstructed mesh to match the part segmentation. Experimental results on
multiple public datasets show that without using 3D ground truth meshes, the
proposed approach outperforms the previous state-of-the-art approaches that
require ground truth meshes for training.
- Abstract(参考訳): 非パラメトリックなアプローチは、単一の単眼画像から3次元人間のメッシュを再構築する有望な結果を示している。
スキン付きマルチパーソンリニアモデル(smpl)のようなパラメトリックな人間モデルを用いた従来のアプローチとは異なり、非パラメトリックなアプローチはパラメトリック空間への重回帰を緩和する。
しかし、既存の非パラメトリック手法では各頂点の回帰ターゲットとして基底真理メッシュが必要であり、基底真理メッシュラベルの取得は非常に高価である。
本稿では,人間のメッシュ再構成を,真理メッシュを使わずに学習する手法を提案する。
これはグラフ畳み込みニューラルネットワーク(Graph CNN)の損失関数に2つの新しい用語を導入することで実現される。
最初の項は、再構成メッシュ上の正則化器として機能するラプラシア先行である。
第2項は部分分割損失であり、再構成メッシュの投影された領域に部分分割に一致するように強制する。
複数の公開データセットの実験結果から、提案手法は3次元の真理メッシュを使わずに、トレーニングに真理メッシュを必要とする従来の最先端のアプローチよりも優れていることが示された。
関連論文リスト
- Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - Self-supervised Human Mesh Recovery with Cross-Representation Alignment [20.69546341109787]
自己教師付きヒューマンメッシュリカバリ手法は、3Dアノテーション付きベンチマークデータセットの可用性と多様性が制限されているため、一般化性が低い。
頑健だがスパースな表現(2Dキーポイント)からの相補的情報を利用した相互表現アライメントを提案する。
この適応的相互表現アライメントは、偏差から明示的に学習し、相補的な情報(疎表現からの豊かさと密表現からの堅牢さ)をキャプチャする。
論文 参考訳(メタデータ) (2022-09-10T04:47:20Z) - Adversarial Parametric Pose Prior [106.12437086990853]
我々は、SMPLパラメータを現実的なポーズを生成する値に制限する事前学習を行う。
得られた先行学習は実データ分布の多様性をカバーし、2次元キーポイントからの3次元再構成の最適化を容易にし、画像からの回帰に使用する場合のポーズ推定精度を向上することを示す。
論文 参考訳(メタデータ) (2021-12-08T10:05:32Z) - 3D Human Pose and Shape Regression with Pyramidal Mesh Alignment
Feedback Loop [128.07841893637337]
回帰に基づく手法は最近、単眼画像からヒトのメッシュを再構成する有望な結果を示した。
パラメータの小さな偏差は、推定メッシュと画像のエビデンスの間に顕著な不一致を引き起こす可能性がある。
本稿では,特徴ピラミッドを活用し,予測パラメータを補正するために,ピラミッドメッシュアライメントフィードバック(pymaf)ループを提案する。
論文 参考訳(メタデータ) (2021-03-30T17:07:49Z) - Im2Mesh GAN: Accurate 3D Hand Mesh Recovery from a Single RGB Image [31.371190180801452]
入力画像から直接ハンドメッシュを学習できることが示される。
我々は、エンドツーエンドの学習を通してメッシュを学習するための新しいタイプのGANIm2Mesh GANを提案する。
論文 参考訳(メタデータ) (2021-01-27T07:38:01Z) - Ellipse Regression with Predicted Uncertainties for Accurate Multi-View
3D Object Estimation [26.930403135038475]
三次元モデルを楕円体として表現できる物体を考察する。
本稿では,各オブジェクトをセグメント化して楕円形オブジェクトのパラメータを推定し,投影楕円のパラメータを正確に回帰するMask R-CNNの変種について述べる。
論文 参考訳(メタデータ) (2020-12-27T19:52:58Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。