論文の概要: TetraTSDF: 3D human reconstruction from a single image with a
tetrahedral outer shell
- arxiv url: http://arxiv.org/abs/2004.10534v1
- Date: Wed, 22 Apr 2020 12:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 18:41:28.208441
- Title: TetraTSDF: 3D human reconstruction from a single image with a
tetrahedral outer shell
- Title(参考訳): 四面体外殻を用いた1枚の画像からの3次元ヒト再建
- Authors: Hayato Onizuka, Zehra Hayirci, Diego Thomas, Akihiro Sugimoto, Hideaki
Uchiyama, Rin-ichiro Taniguchi
- Abstract要約: 人体とそれに対応する部分接続網(PCN)の3次元形状回帰モデルを提案する。
提案手法はコンパクトで密度が高く,精度が高く,CNNに基づく回帰処理に適している。
提案手法は, 単一のRGB画像から, ゆるい服を着ている人間の詳細な形状を復元できることを示す。
- 参考スコア(独自算出の注目度): 11.800651452572563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering the 3D shape of a person from its 2D appearance is ill-posed due
to ambiguities. Nevertheless, with the help of convolutional neural networks
(CNN) and prior knowledge on the 3D human body, it is possible to overcome such
ambiguities to recover detailed 3D shapes of human bodies from single images.
Current solutions, however, fail to reconstruct all the details of a person
wearing loose clothes. This is because of either (a) huge memory requirement
that cannot be maintained even on modern GPUs or (b) the compact 3D
representation that cannot encode all the details. In this paper, we propose
the tetrahedral outer shell volumetric truncated signed distance function
(TetraTSDF) model for the human body, and its corresponding part connection
network (PCN) for 3D human body shape regression. Our proposed model is
compact, dense, accurate, and yet well suited for CNN-based regression task.
Our proposed PCN allows us to learn the distribution of the TSDF in the
tetrahedral volume from a single image in an end-to-end manner. Results show
that our proposed method allows to reconstruct detailed shapes of humans
wearing loose clothes from single RGB images.
- Abstract(参考訳): 2次元の外観から人の3d形状を回復することは曖昧さのため不適切である。
それでも、畳み込みニューラルネットワーク(CNN)と3次元人体に関する事前知識の助けを借りて、そのような曖昧さを克服し、単一の画像から人間の体の詳細な3次元形状を復元することができる。
しかし、現在の解決策は、ゆるい服を着ている人の詳細を再構築することができない。
これはどちらかが原因で
(a)最新のGPUでも維持できない巨大なメモリ要件
(b)全ての詳細をエンコードできないコンパクトな3d表現。
本稿では,人体に対する四面体外殻容積切断符号距離関数(tetratsdf)モデルと,それに対応する3次元人体形状回帰のための部分接続ネットワーク(pcn)を提案する。
提案モデルはコンパクト,高密度,高精度であり,cnnに基づく回帰タスクに適している。
提案するPCNにより,一画像から四面体体積のTSDF分布をエンドツーエンドに学習することができる。
提案手法は, 単一のRGB画像から, ゆるい服を着ている人間の詳細な形状を復元できることを示す。
関連論文リスト
- COSMU: Complete 3D human shape from monocular unconstrained images [24.08612483445495]
対象画像から完全な3次元人物形状を再構成するための新しい枠組みを提案する。
本研究の目的は、入力対象に見えない再建された人体の領域において、高品質な詳細を再現することである。
論文 参考訳(メタデータ) (2024-07-15T10:06:59Z) - DiffHuman: Probabilistic Photorealistic 3D Reconstruction of Humans [38.8751809679184]
DiffHumanは1枚のRGB画像から3次元人物再構成を行う確率的手法である。
我々の実験は、DiffHumanが入力画像に見えない、あるいは不確実な人物のために、多種多様な詳細な再構成を作成できることを示している。
論文 参考訳(メタデータ) (2024-03-30T22:28:29Z) - SHARP: Shape-Aware Reconstruction of People in Loose Clothing [6.469298908778292]
SHARP(Shape Aware Reconstruction of People in loose clothes)は、エンド・ツー・エンドのトレーニング可能な新しいネットワークである。
モノクロ画像から、ゆるい服を着た人間の3D形状と外観を復元する。
従来の最先端手法よりも質的かつ定量的な性能を示す。
論文 参考訳(メタデータ) (2022-05-24T10:26:42Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - SHARP: Shape-Aware Reconstruction of People In Loose Clothing [6.796748304066826]
単眼画像からの3D人体再構築は、コンピュータビジョンにおける興味深い問題であり、不適切な問題である。
本研究では,モノクロ画像から,ゆるい服装の3D人物の詳細な形状と外観を正確に復元する,エンドツーエンドのトレーニング可能なネットワークであるSHARPを提案する。
公開されているClos3DおよびTHumanデータセット上でSHARPを評価し、最先端のアプローチに優れた性能を報告した。
論文 参考訳(メタデータ) (2021-06-09T02:54:53Z) - 3D Multi-bodies: Fitting Sets of Plausible 3D Human Models to Ambiguous
Image Data [77.57798334776353]
単眼・部分閉塞視からヒトの高密度3次元再構成を実現することの問題点を考察する。
身体の形状やポーズをパラメータ化することで、あいまいさをより効果的にモデル化できることを示唆する。
提案手法は, 3次元人間の標準ベンチマークにおいて, あいまいなポーズ回復において, 代替手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-02T13:55:31Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。