論文の概要: Geo-PIFu: Geometry and Pixel Aligned Implicit Functions for Single-view
Human Reconstruction
- arxiv url: http://arxiv.org/abs/2006.08072v2
- Date: Mon, 7 Dec 2020 00:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:10:55.670783
- Title: Geo-PIFu: Geometry and Pixel Aligned Implicit Functions for Single-view
Human Reconstruction
- Title(参考訳): Geo-PIFu:シングルビュー人体再構成のための幾何学と画素配向インシシシト関数
- Authors: Tong He, John Collomosse, Hailin Jin, Stefano Soatto
- Abstract要約: Geo-PIFuは、着物の単色画像から3Dメッシュを復元する方法である。
提案手法は,クエリポイントの符号化と潜在ボクセル特徴を用いたグローバルな形状の制約を両立させることで,人間のメッシュの形状歪みの低減と,競合する手法と比較して表面の細部の改善を図っている。
- 参考スコア(独自算出の注目度): 97.3274868990133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Geo-PIFu, a method to recover a 3D mesh from a monocular color
image of a clothed person. Our method is based on a deep implicit
function-based representation to learn latent voxel features using a
structure-aware 3D U-Net, to constrain the model in two ways: first, to resolve
feature ambiguities in query point encoding, second, to serve as a coarse human
shape proxy to regularize the high-resolution mesh and encourage global shape
regularity. We show that, by both encoding query points and constraining global
shape using latent voxel features, the reconstruction we obtain for clothed
human meshes exhibits less shape distortion and improved surface details
compared to competing methods. We evaluate Geo-PIFu on a recent human mesh
public dataset that is $10 \times$ larger than the private commercial dataset
used in PIFu and previous derivative work. On average, we exceed the state of
the art by $42.7\%$ reduction in Chamfer and Point-to-Surface Distances, and
$19.4\%$ reduction in normal estimation errors.
- Abstract(参考訳): 本研究では,着衣者の単眼カラー画像から3次元メッシュを回収する手法であるgeo-pifuを提案する。
提案手法は,構造を意識した3D U-Netを用いて潜在ボクセル特徴を学習し,クエリポイントエンコーディングにおける特徴のあいまいさを解決するために,第2に,高分解能メッシュを規則化し,大域的な形状規則性を促進するための粗い人間の形状プロキシとして機能する,という2つの方法でモデルを制約する。
潜在ボクセル特徴を用いて,クエリポイントをエンコードし,グローバル形状を制約することにより,ヒトメッシュの形状歪みを低減し,競合手法と比較して表面詳細が向上することを示す。
我々はGeo-PIFuを最近の人メッシュ公開データセットで評価し、PIFuやそれ以前のデリバティブな作業で使用されるプライベートな商用データセットよりも10 \times$の規模で評価した。
平均して、Chamfer と Point-to-Surface Distances の 42.7 % の削減と、通常の推定誤差の 19.4 % の削減によって、アートの状態を上回ります。
関連論文リスト
- T-Pixel2Mesh: Combining Global and Local Transformer for 3D Mesh Generation from a Single Image [84.08705684778666]
本稿では,P2Mの粗大なアプローチにインスパイアされたトランスフォーマーブーストアーキテクチャT-Pixel2Meshを提案する。
具体的には,大域変換器を用いて局所的な形状を制御し,局所的な幾何学的詳細を洗練させる。
ShapeNetの実験では最先端の性能が実証され,実世界のデータでは一般化能力が示された。
論文 参考訳(メタデータ) (2024-03-20T15:14:22Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - GeoUDF: Surface Reconstruction from 3D Point Clouds via Geometry-guided
Distance Representation [73.77505964222632]
スパース点雲から離散曲面を再構成する問題に対処する学習ベース手法であるGeoUDFを提案する。
具体的には、UDFのための幾何誘導学習法とその勾配推定を提案する。
予測されたUDFから三角形メッシュを抽出するために,カスタマイズされたエッジベースマーチングキューブモジュールを提案する。
論文 参考訳(メタデータ) (2022-11-30T06:02:01Z) - Neural Capture of Animatable 3D Human from Monocular Video [38.974181971541846]
本稿では,モノクラービデオ入力からアニマタブルな3次元人間の表現を構築するための新しいパラダイムを提案する。
本手法は,メッシュをベースとしたパラメトリックな3次元人体モデルを用いた動的ニューラルレージアンス場(NeRF)に基づく。
論文 参考訳(メタデータ) (2022-08-18T09:20:48Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - DC-GNet: Deep Mesh Relation Capturing Graph Convolution Network for 3D
Human Shape Reconstruction [1.290382979353427]
本稿では,3次元形状復元のための形状補完タスクを備えたディープメッシュ・リレーション・キャプチャーグラフ・コンボリューション・ネットワーク(DC-GNet)を提案する。
我々のアプローチは、より遠い領域のノード間のより微妙な関係からメッシュ構造を符号化する。
形状完了モジュールは,屋外シーンの性能劣化問題を軽減する。
論文 参考訳(メタデータ) (2021-08-27T16:43:32Z) - Geodesic-HOF: 3D Reconstruction Without Cutting Corners [42.4960665928525]
シングルビュー3Dオブジェクト再構成は、コンピュータビジョンの難しい根本的な問題である。
標準サンプリング領域から高次元空間への画像条件付き写像関数を学習する。
この学習された測地線埋め込み空間は、教師なしオブジェクト分解のようなアプリケーションに有用な情報を提供する。
論文 参考訳(メタデータ) (2020-06-14T18:59:06Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。