論文の概要: MPT: Mesh Pre-Training with Transformers for Human Pose and Mesh
Reconstruction
- arxiv url: http://arxiv.org/abs/2211.13357v1
- Date: Thu, 24 Nov 2022 00:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:29:20.851660
- Title: MPT: Mesh Pre-Training with Transformers for Human Pose and Mesh
Reconstruction
- Title(参考訳): MPT:人間の姿勢とメッシュ再構築のためのトランスフォーマーを用いたメッシュ事前訓練
- Authors: Kevin Lin, Chung-Ching Lin, Lin Liang, Zicheng Liu, Lijuan Wang
- Abstract要約: Mesh Pre-Training(MPT)は、人間のポーズのためのMoCapデータや単一のイメージからのメッシュ再構築などの3Dメッシュデータを活用する、新たな事前トレーニングフレームワークである。
MPTにより、トランスフォーマーモデルは、実際の画像から人間のメッシュ再構築のゼロショット機能を持つことができる。
- 参考スコア(独自算出の注目度): 56.80384196339199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Mesh Pre-Training (MPT), a new pre-training framework that
leverages 3D mesh data such as MoCap data for human pose and mesh
reconstruction from a single image. Existing work in 3D pose and mesh
reconstruction typically requires image-mesh pairs as the training data, but
the acquisition of 2D-to-3D annotations is difficult. In this paper, we explore
how to leverage 3D mesh data such as MoCap data, that does not have RGB images,
for pre-training. The key idea is that even though 3D mesh data cannot be used
for end-to-end training due to a lack of the corresponding RGB images, it can
be used to pre-train the mesh regression transformer subnetwork. We observe
that such pre-training not only improves the accuracy of mesh reconstruction
from a single image, but also enables zero-shot capability. We conduct mesh
pre-training using 2 million meshes. Experimental results show that MPT
advances the state-of-the-art results on Human3.6M and 3DPW datasets. We also
show that MPT enables transformer models to have zero-shot capability of human
mesh reconstruction from real images. In addition, we demonstrate the
generalizability of MPT to 3D hand reconstruction, achieving state-of-the-art
results on FreiHAND dataset.
- Abstract(参考訳): 本研究では,人間のポーズやメッシュ再構成のためのmocapデータなどの3dメッシュデータを活用する,新たな事前トレーニングフレームワークであるmesh pre-training(mpt)を提案する。
既存の3Dポーズとメッシュ再構築では、トレーニングデータとしてイメージ-メッシュペアが必要であるが、2D-to-3Dアノテーションの取得は難しい。
本稿では,RGB画像を持たないMoCapデータなどの3Dメッシュデータを事前学習に活用する方法を検討する。
鍵となる考え方は、3Dメッシュデータは対応するRGBイメージの欠如のためにエンドツーエンドのトレーニングには使用できないが、メッシュ回帰トランスフォーマーサブネットワークの事前トレーニングに使用できることである。
このような事前トレーニングは,単一の画像からメッシュ再構成の精度を向上させるだけでなく,ゼロショット機能を実現する。
200万のメッシュを使ってメッシュ事前トレーニングを行います。
実験の結果、MPTはHuman3.6Mと3DPWデータセットの最先端の結果を前進させることが示された。
また,mptはトランスフォーマーモデルが実画像からのヒトメッシュ再構成のゼロショット化を可能にすることを示した。
さらに,MPTから3次元手指再構成の一般化可能性を示し,FreiHANDデータセットの最先端結果を実現する。
関連論文リスト
- Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Adversarial Parametric Pose Prior [106.12437086990853]
我々は、SMPLパラメータを現実的なポーズを生成する値に制限する事前学習を行う。
得られた先行学習は実データ分布の多様性をカバーし、2次元キーポイントからの3次元再構成の最適化を容易にし、画像からの回帰に使用する場合のポーズ推定精度を向上することを示す。
論文 参考訳(メタデータ) (2021-12-08T10:05:32Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - PC-HMR: Pose Calibration for 3D Human Mesh Recovery from 2D
Images/Videos [47.601288796052714]
我々は2つの新しいPoseフレームワーク、すなわちSerial PC-HMRとParallel PC-HMRを開発した。
当社のフレームワークは、データ駆動学習と幾何学的モデリングの汎用的かつ補完的な統合に基づいています。
我々は一般的なベンチマーク(Human3.6M, 3DPW, SURREAL)について広範な実験を行い、PC-HMRフレームワークがSOTA結果を達成する。
論文 参考訳(メタデータ) (2021-03-16T12:12:45Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - Im2Mesh GAN: Accurate 3D Hand Mesh Recovery from a Single RGB Image [31.371190180801452]
入力画像から直接ハンドメッシュを学習できることが示される。
我々は、エンドツーエンドの学習を通してメッシュを学習するための新しいタイプのGANIm2Mesh GANを提案する。
論文 参考訳(メタデータ) (2021-01-27T07:38:01Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。