論文の概要: Implicit Feature Networks for Texture Completion from Partial 3D Data
- arxiv url: http://arxiv.org/abs/2009.09458v1
- Date: Sun, 20 Sep 2020 15:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 13:00:20.738623
- Title: Implicit Feature Networks for Texture Completion from Partial 3D Data
- Title(参考訳): 部分的3次元データからのテクスチャ補完のための重要特徴ネットワーク
- Authors: Julian Chibane, Gerard Pons-Moll
- Abstract要約: 我々はIF-Netsを人間と任意の物体の部分的テクスチャスキャンからテクスチャ補完に一般化する。
本モデルでは, 欠損したテクスチャ部品を, 完成した形状でインペイントすることに成功している。
- 参考スコア(独自算出の注目度): 56.93289686162015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work to infer 3D texture use either texture atlases, which require
uv-mappings and hence have discontinuities, or colored voxels, which are memory
inefficient and limited in resolution. Recent work, predicts RGB color at every
XYZ coordinate forming a texture field, but focus on completing texture given a
single 2D image. Instead, we focus on 3D texture and geometry completion from
partial and incomplete 3D scans. IF-Nets have recently achieved
state-of-the-art results on 3D geometry completion using a multi-scale deep
feature encoding, but the outputs lack texture. In this work, we generalize
IF-Nets to texture completion from partial textured scans of humans and
arbitrary objects. Our key insight is that 3D texture completion benefits from
incorporating local and global deep features extracted from both the 3D partial
texture and completed geometry. Specifically, given the partial 3D texture and
the 3D geometry completed with IF-Nets, our model successfully in-paints the
missing texture parts in consistence with the completed geometry. Our model won
the SHARP ECCV'20 challenge, achieving highest performance on all challenges.
- Abstract(参考訳): 3Dテクスチャを推定する以前の作業では、uvマッピングを必要とするテクスチャアトラスや、メモリ非効率で解像度が制限された色のボクセルを使用する。
近年、xyz座標のrgb色を予測してテクスチャフィールドを形成するが、単一の2d画像によるテクスチャの完成に重点を置いている。
代わりに、部分的および不完全な3Dスキャンから3Dテクスチャと幾何学的補完に焦点を当てる。
IF-Netsは最近、マルチスケールの深層特徴符号化を用いた3次元幾何合成における最先端の結果を得たが、出力にはテクスチャが欠けている。
本稿では,人間と任意の物体の部分的なテクスチャスキャンからif-netをテクスチャ補完に一般化する。
私たちの重要な洞察は、3dテクスチャの完成度が3d部分テクスチャと完成形状の両方から抽出されたローカルとグローバルの深い特徴を組み込むことによって得られるということです。
特に,if-netで完備した部分3次元テクスチャと3次元形状を考えると,このモデルでは欠落しているテクスチャ部分と完結したテクスチャとをインペアトすることに成功した。
我々のモデルはSHARP ECCV'20チャレンジで優勝し、すべてのチャレンジで最高のパフォーマンスを達成しました。
関連論文リスト
- DreamMesh: Jointly Manipulating and Texturing Triangle Meshes for Text-to-3D Generation [149.77077125310805]
我々はDreamMeshを提案する。DreamMeshは、明確に定義された表面(三角形メッシュ)をピボットして高忠実な3Dモデルを生成する、新しいテキスト・ツー・3Dアーキテクチャである。
粗い段階では、メッシュはまずテキスト誘導ジャコビアンによって変形し、その後DreamMeshは2D拡散モデルを用いてメッシュをテクスチャ化する。
細かい段階では、DreamMeshはメッシュを共同で操作し、テクスチャマップを洗練し、高品質なトライアングルメッシュを高忠実なテクスチャ素材で実現する。
論文 参考訳(メタデータ) (2024-09-11T17:59:02Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - TSCom-Net: Coarse-to-Fine 3D Textured Shape Completion Network [14.389603490486364]
3次元部分的テクスチャスキャンから3次元の人体形状を再構築することは、多くのコンピュータビジョンやグラフィックスアプリケーションにとって基本的な課題である。
本稿では,3次元体形状と高分解能テクスチャ補完のためのニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-18T11:06:10Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z) - Projective Urban Texturing [8.349665441428925]
没入型都市環境における3次元都市メッシュのテクスチャ自動生成手法を提案する。
Projective Urban Texturing (PUT)は、実際のパノラマ画像から見えない都市メッシュへのテクスチャスタイルを再ターゲットする。
PUTは、未ペア画像からテクスチャへの変換用に設計されたニューラルアーキテクチャの、対照的で敵対的なトレーニングに依存している。
論文 参考訳(メタデータ) (2022-01-25T14:56:52Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - 3DBooSTeR: 3D Body Shape and Texture Recovery [76.91542440942189]
3DBooSTeRは、部分的な3Dスキャンからテクスチャ化された3Dボディメッシュを復元する新しい方法である。
提案手法は形状とテクスチャの完成を2つの逐次的なタスクに分解する。
論文 参考訳(メタデータ) (2020-10-23T21:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。