論文の概要: MeshLeTemp: Leveraging the Learnable Vertex-Vertex Relationship to
Generalize Human Pose and Mesh Reconstruction for In-the-Wild Scenes
- arxiv url: http://arxiv.org/abs/2202.07228v1
- Date: Tue, 15 Feb 2022 07:06:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:08:36.185806
- Title: MeshLeTemp: Leveraging the Learnable Vertex-Vertex Relationship to
Generalize Human Pose and Mesh Reconstruction for In-the-Wild Scenes
- Title(参考訳): MeshLeTemp: 学習可能なVertex-Vertex関係の活用による人間行動の一般化とメッシュ再構築
- Authors: Trung Q. Tran, Cuong C. Than, Hai T. Nguyen
- Abstract要約: 一つの画像から3次元のポーズとメッシュ再構成を行う強力な方法であるMeshLeTempを提案する。
人体先行エンコーディングの観点では、学習可能なテンプレートヒューマンメッシュを提案する。
Ablation studyの1つとして、3次元手指再建法であるMeshLeTempを別の領域に適用した。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present MeshLeTemp, a powerful method for 3D human pose and mesh
reconstruction from a single image. In terms of human body priors encoding, we
propose using a learnable template human mesh instead of a constant template
utilized by previous state-of-the-art methods. The proposed learnable template
reflects not only vertex-vertex interactions but also the human pose and body
shape, being able to adapt to diverse images. We also introduce a strategy to
enrich the training data that contains both 2D and 3D annotations. We conduct
extensive experiments to show the generalizability of our method and the
effectiveness of our data strategy. As one of our ablation studies, we adapt
MeshLeTemp to another domain which is 3D hand reconstruction.
- Abstract(参考訳): 一つの画像から3次元のポーズとメッシュ再構成を行う強力な方法であるMeshLeTempを提案する。
人体事前符号化では,従来の最先端手法を用いた定型テンプレートの代わりに,学習可能なテンプレートヒューマンメッシュを提案する。
提案する学習テンプレートは頂点と頂点の相互作用だけでなく、人間のポーズや体形も反映し、多様な画像に適応できる。
また、2Dアノテーションと3Dアノテーションの両方を含むトレーニングデータを充実させる戦略も導入する。
我々は,本手法の一般化可能性とデータ戦略の有効性を示す広範な実験を行った。
Ablation studyの1つとして、3次元手指再建法であるMeshLeTempを別の領域に適用した。
関連論文リスト
- Deformable Model-Driven Neural Rendering for High-Fidelity 3D
Reconstruction of Human Heads Under Low-View Settings [20.07788905506271]
低視点で3Dの頭部を再構築することは技術的な課題を呈する。
幾何学的分解を提案し、2段階の粗大なトレーニング戦略を採用する。
提案手法は,低視野環境下での再現精度と新規ビュー合成の観点から,既存のニューラルレンダリング手法より優れる。
論文 参考訳(メタデータ) (2023-03-24T08:32:00Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Human Performance Capture from Monocular Video in the Wild [50.34917313325813]
本研究では,挑戦的な身体ポーズを特徴とするモノクロ映像から動的3次元人体形状をキャプチャする手法を提案する。
本手法は,現在開発中の3DPWビデオデータセットにおいて,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2021-11-29T16:32:41Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - Liquid Warping GAN with Attention: A Unified Framework for Human Image
Synthesis [58.05389586712485]
我々は、人間の動きの模倣、外見の移入、新しい視点の合成など、人間の画像合成に取り組む。
本稿では,ポーズと形状を乱す3次元ボディーメッシュ回収モジュールを提案する。
我々はまた、人間の動きの模倣、外観伝達、新しいビュー合成を評価するために、新しいデータセット、すなわちiPERデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-18T02:57:47Z) - Learning Complete 3D Morphable Face Models from Images and Videos [88.34033810328201]
本稿では,画像やビデオから顔形状,アルベド,表現の完全な3次元モデルを学ぶための最初のアプローチを提案する。
既存の手法よりも,学習モデルの方がより一般化し,高品質な画像ベース再構築につながることを示す。
論文 参考訳(メタデータ) (2020-10-04T20:51:23Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。