論文の概要: AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis
- arxiv url: http://arxiv.org/abs/2204.03105v1
- Date: Wed, 6 Apr 2022 21:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:03:44.644729
- Title: AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis
- Title(参考訳): AUV-Net: テクスチャ転送と合成のための協調UVマップの学習
- Authors: Zhiqin Chen, Kangxue Yin, Sanja Fidler
- Abstract要約: AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
- 参考スコア(独自算出の注目度): 78.17671694498185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of texture representation for 3D shapes
for the challenging and underexplored tasks of texture transfer and synthesis.
Previous works either apply spherical texture maps which may lead to large
distortions, or use continuous texture fields that yield smooth outputs lacking
details. We argue that the traditional way of representing textures with images
and linking them to a 3D mesh via UV mapping is more desirable, since
synthesizing 2D images is a well-studied problem. We propose AUV-Net which
learns to embed 3D surfaces into a 2D aligned UV space, by mapping the
corresponding semantic parts of different 3D shapes to the same location in the
UV space. As a result, textures are aligned across objects, and can thus be
easily synthesized by generative models of images. Texture alignment is learned
in an unsupervised manner by a simple yet effective texture alignment module,
taking inspiration from traditional works on linear subspace learning. The
learned UV mapping and aligned texture representations enable a variety of
applications including texture transfer, texture synthesis, and textured single
view 3D reconstruction. We conduct experiments on multiple datasets to
demonstrate the effectiveness of our method. Project page:
https://nv-tlabs.github.io/AUV-NET.
- Abstract(参考訳): 本稿では,3次元形状のテクスチャ表現について,テクスチャの伝達と合成の難解で未熟な課題について論じる。
以前の作品では、大きな歪みをもたらす球面テクスチャマップを適用するか、詳細を欠いた滑らかなアウトプットを生成する連続テクスチャフィールドを使用する。
2D画像の合成はよく研究されている問題であるため、テクスチャを画像で表現し、UVマッピングを介して3Dメッシュにリンクする従来の方法の方が望ましいと我々は主張する。
本稿では,異なる3次元形状の対応する意味部分を同一位置のUV空間にマッピングすることにより,3次元曲面を2次元整列UV空間に埋め込むことを学習するAUV-Netを提案する。
その結果、テクスチャはオブジェクトにまたがってアライメントされ、画像の生成モデルによって容易に合成できる。
テクスチャアライメントは、単純だが効果的なテクスチャアライメントモジュールによって教師なしの方法で学習され、線形部分空間学習に関する伝統的な研究から着想を得ている。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成などの様々なアプリケーションを可能にする。
提案手法の有効性を実証するため,複数のデータセットで実験を行った。
プロジェクトページ: https://nv-tlabs.github.io/AUV-NET
関連論文リスト
- Texture-GS: Disentangling the Geometry and Texture for 3D Gaussian Splatting Editing [79.10630153776759]
3Dガウススプラッティングは画期的なアプローチとして登場し、高忠実度再構成とリアルタイムレンダリングの能力に注目が集まっている。
そこで我々は,テクスチャ-GSという新しいアプローチを提案し,その外観を3次元表面上にマッピングされた2次元テクスチャとして表現することで幾何学から切り離す。
提案手法は,高精細な外観の編集を容易にするだけでなく,コンシューマレベルのデバイス上でのリアルタイムレンダリングも実現している。
論文 参考訳(メタデータ) (2024-03-15T06:42:55Z) - Nuvo: Neural UV Mapping for Unruly 3D Representations [61.87715912587394]
既存のUVマッピングアルゴリズムは、最先端の3D再構成と生成技術によって生成された幾何学で動作する。
本稿では,3次元再構成と生成技術により生成された幾何学的手法を用いたUVマッピング手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:58:38Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z) - TUVF: Learning Generalizable Texture UV Radiance Fields [32.417062841312976]
本研究では,3次元形状に直接依存するのではなく,学習可能なUV空間内でテクスチャを生成するテクスチャUVF(Texture UV Radiance Fields)を提案する。
TUVFは、テクスチャを下層の形状から切り離し、同じUV空間を共有する他の形状に転送することを可能にする。
合成および実世界のオブジェクトデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-04T17:58:05Z) - TEGLO: High Fidelity Canonical Texture Mapping from Single-View Images [1.4502611532302039]
画像の単一ビューから3次元表現を学習するためのTEGLO(Textured EG3D-GLO)を提案する。
我々は, 条件付きニューラルレージアンスフィールド(NeRF)を, 明示的な3次元監視なしに訓練することで実現した。
このようなマッピングによって、共有トポロジのメッシュを必要としないテクスチャ転送やテクスチャ編集が可能であることを実証する。
論文 参考訳(メタデータ) (2023-03-24T01:52:03Z) - FFHQ-UV: Normalized Facial UV-Texture Dataset for 3D Face Reconstruction [46.3392612457273]
このデータセットには、5万以上の高品質なテクスチャUVマップが含まれており、照度、中性表現、クリーンな顔領域がある。
我々のパイプラインは、StyleGANベースの顔画像編集アプローチの最近の進歩を活用している。
実験により,本手法は最先端手法よりも再現精度が向上することが示された。
論文 参考訳(メタデータ) (2022-11-25T03:21:05Z) - 3D Human Mesh Regression with Dense Correspondence [95.92326689172877]
単一の2D画像から人体の3Dメッシュを推定することは、拡張現実や人間とロボットのインタラクションといった多くのアプリケーションにおいて重要なタスクである。
前者は畳み込みニューラルネットワーク(CNN)を用いて抽出した大域的画像特徴から3Dメッシュを再構成した。
本稿では,メッシュとUV空間の局所像特徴との密接な対応性を明確に確立する,DecoMRというモデルフリーな3次元メッシュ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。