論文の概要: DC-GNet: Deep Mesh Relation Capturing Graph Convolution Network for 3D
Human Shape Reconstruction
- arxiv url: http://arxiv.org/abs/2108.12384v1
- Date: Fri, 27 Aug 2021 16:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:12:19.169554
- Title: DC-GNet: Deep Mesh Relation Capturing Graph Convolution Network for 3D
Human Shape Reconstruction
- Title(参考訳): DC-GNet:3次元形状再構成のためのグラフ畳み込みネットワークの深層メッシュ関係
- Authors: Shihao Zhou, Mengxi Jiang, Shanshan Cai, Yunqi Lei
- Abstract要約: 本稿では,3次元形状復元のための形状補完タスクを備えたディープメッシュ・リレーション・キャプチャーグラフ・コンボリューション・ネットワーク(DC-GNet)を提案する。
我々のアプローチは、より遠い領域のノード間のより微妙な関係からメッシュ構造を符号化する。
形状完了モジュールは,屋外シーンの性能劣化問題を軽減する。
- 参考スコア(独自算出の注目度): 1.290382979353427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to reconstruct a full 3D human shape from a single
image. Previous vertex-level and parameter regression approaches reconstruct 3D
human shape based on a pre-defined adjacency matrix to encode positive
relations between nodes. The deep topological relations for the surface of the
3D human body are not carefully exploited. Moreover, the performance of most
existing approaches often suffer from domain gap when handling more occlusion
cases in real-world scenes.
In this work, we propose a Deep Mesh Relation Capturing Graph Convolution
Network, DC-GNet, with a shape completion task for 3D human shape
reconstruction. Firstly, we propose to capture deep relations within mesh
vertices, where an adaptive matrix encoding both positive and negative
relations is introduced. Secondly, we propose a shape completion task to learn
prior about various kinds of occlusion cases. Our approach encodes mesh
structure from more subtle relations between nodes in a more distant region.
Furthermore, our shape completion module alleviates the performance degradation
issue in the outdoor scene. Extensive experiments on several benchmarks show
that our approach outperforms the previous 3D human pose and shape estimation
approaches.
- Abstract(参考訳): 本稿では,1枚の画像から完全な3次元人体形状を再構築することを目的とする。
従来の頂点レベルおよびパラメータ回帰手法は、ノード間の正の関係を符号化する事前定義された隣接行列に基づいて3次元の人体形状を再構成する。
3次元人体の表面の深いトポロジカルな関係は慎重に利用されていない。
さらに、既存のほとんどのアプローチのパフォーマンスは、現実世界のシーンでより多くのオクルージョンケースを扱う場合、ドメインのギャップに苦しむことが多い。
本研究では,3次元形状復元のための形状補完タスクを備えたDeep Mesh Relation Capturing Graph Convolution Network, DC-GNetを提案する。
まず、正と負の関係を符号化する適応行列を導入するメッシュ頂点内での深い関係を捉えることを提案する。
次に,種々の閉塞症例を事前に学習するための形状完了タスクを提案する。
我々のアプローチは、より遠い領域のノード間のより微妙な関係からメッシュ構造を符号化する。
さらに, 形状補完モジュールは, 屋外場面における性能劣化問題を緩和する。
いくつかのベンチマークにおいて、我々のアプローチは以前の3次元人間のポーズと形状推定のアプローチよりも優れていた。
関連論文リスト
- Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Neural Capture of Animatable 3D Human from Monocular Video [38.974181971541846]
本稿では,モノクラービデオ入力からアニマタブルな3次元人間の表現を構築するための新しいパラダイムを提案する。
本手法は,メッシュをベースとしたパラメトリックな3次元人体モデルを用いた動的ニューラルレージアンス場(NeRF)に基づく。
論文 参考訳(メタデータ) (2022-08-18T09:20:48Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - 3D Human Pose Regression using Graph Convolutional Network [68.8204255655161]
本稿では,2次元のポーズから3次元のポーズ回帰を行うために,PoseGraphNetというグラフ畳み込みネットワークを提案する。
我々のモデルの性能は最先端に近いが、パラメータははるかに少ない。
論文 参考訳(メタデータ) (2021-05-21T14:41:31Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。