論文の概要: BCom-Net: Coarse-to-Fine 3D Textured Body Shape Completion Network
- arxiv url: http://arxiv.org/abs/2208.08768v1
- Date: Thu, 18 Aug 2022 11:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:38:22.798034
- Title: BCom-Net: Coarse-to-Fine 3D Textured Body Shape Completion Network
- Title(参考訳): BCom-Net: 粗大な3次元テクスチャ形状補完ネットワーク
- Authors: Ahmet Serdar Karadeniz, Sk Aziz Ali, Anis Kacem, Elona Dupont, Djamila
Aouada
- Abstract要約: 3次元部分的テクスチャスキャンから3次元の人体形状を再構築することは、多くのコンピュータビジョンやグラフィックスアプリケーションにとって基本的な課題である。
本稿では,3次元体形状と高分解能テクスチャ補完のためのニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 14.389603490486364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reconstructing 3D human body shapes from 3D partial textured scans remains a
fundamental task for many computer vision and graphics applications -- e.g.,
body animation, and virtual dressing. We propose a new neural network
architecture for 3D body shape and high-resolution texture completion --
BCom-Net -- that can reconstruct the full geometry from mid-level to high-level
partial input scans. We decompose the overall reconstruction task into two
stages - first, a joint implicit learning network (SCom-Net and TCom-Net) that
takes a voxelized scan and its occupancy grid as input to reconstruct the full
body shape and predict vertex textures. Second, a high-resolution texture
completion network, that utilizes the predicted coarse vertex textures to
inpaint the missing parts of the partial 'texture atlas'. A Thorough
experimental evaluation on 3DBodyTex.V2 dataset shows that our method achieves
competitive results with respect to the state-of-the-art while generalizing to
different types and levels of partial shapes. The proposed method has also
ranked second in the SHARP 2022 Challenge1-Track1.
- Abstract(参考訳): 3D部分的なテクスチャスキャンから3Dの人体形状を再構築することは、多くのコンピュータビジョンやグラフィックアプリケーション -- ボディアニメーションや仮想ドレッシング -- の基本的な課題である。
本研究では,3次元体形状と高分解能テクスチャ補完(BCom-Net)のためのニューラルネットワークアーキテクチャを提案する。
まず,Voxelized scanとその占有網を入力として用い,全身形状の再構築と頂点テクスチャの予測を行う,共同暗黙学習ネットワーク(SCom-NetとTCom-Net)の2段階に分割する。
第二に、予測された粗い頂点テクスチャを利用して部分的な「テクスチャアトラス」の欠落部分を塗りつぶす高分解能テクスチャ補完ネットワークである。
3DBodyTex.V2データセットの詳細な実験結果から,本手法は,異なる種類の部分形状を一般化しながら,最先端技術に対する競争結果が得られることが示された。
提案手法はSHARP 2022 Challenge1-Track1でも第2位である。
関連論文リスト
- Inferring Implicit 3D Representations from Human Figures on Pictorial
Maps [1.0499611180329804]
画像地図上で最も頻繁に現れる人物の1つである人物を3次元化するための自動ワークフローを提案する。
まず、完全に連結された層からなるネットワークに、2次元ポーズポイントの深さ座標を推定させる。
得られた3Dポーズポイントは、本体部の2Dマスクと共に深暗面ネットワークに入力され、3D署名された距離場が推測される。
論文 参考訳(メタデータ) (2022-08-30T19:29:18Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z) - Implicit Feature Networks for Texture Completion from Partial 3D Data [56.93289686162015]
我々はIF-Netsを人間と任意の物体の部分的テクスチャスキャンからテクスチャ補完に一般化する。
本モデルでは, 欠損したテクスチャ部品を, 完成した形状でインペイントすることに成功している。
論文 参考訳(メタデータ) (2020-09-20T15:48:17Z) - AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph [54.701098964773756]
セマンティックな部分で3Dオブジェクトを復元し、直接編集することを目的としている。
我々の研究は、一般化された立方体と一般化されたシリンダーという、2種類の原始的な形状の物体を回収する試みである。
提案アルゴリズムは,高品質な3Dモデルを復元し,既存手法のインスタンスセグメンテーションと3D再構成の両方で性能を向上する。
論文 参考訳(メタデータ) (2020-05-27T12:16:24Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。