論文の概要: Texturify: Generating Textures on 3D Shape Surfaces
- arxiv url: http://arxiv.org/abs/2204.02411v1
- Date: Tue, 5 Apr 2022 18:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 14:53:25.942194
- Title: Texturify: Generating Textures on 3D Shape Surfaces
- Title(参考訳): texturify: 3d形状表面上のテクスチャの生成
- Authors: Yawar Siddiqui, Justus Thies, Fangchang Ma, Qi Shan, Matthias
Nie{\ss}ner, Angela Dai
- Abstract要約: 本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
- 参考スコア(独自算出の注目度): 34.726179801982646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Texture cues on 3D objects are key to compelling visual representations, with
the possibility to create high visual fidelity with inherent spatial
consistency across different views. Since the availability of textured 3D
shapes remains very limited, learning a 3D-supervised data-driven method that
predicts a texture based on the 3D input is very challenging. We thus propose
Texturify, a GAN-based method that leverages a 3D shape dataset of an object
class and learns to reproduce the distribution of appearances observed in real
images by generating high-quality textures. In particular, our method does not
require any 3D color supervision or correspondence between shape geometry and
images to learn the texturing of 3D objects. Texturify operates directly on the
surface of the 3D objects by introducing face convolutional operators on a
hierarchical 4-RoSy parametrization to generate plausible object-specific
textures. Employing differentiable rendering and adversarial losses that
critique individual views and consistency across views, we effectively learn
the high-quality surface texturing distribution from real-world images.
Experiments on car and chair shape collections show that our approach
outperforms state of the art by an average of 22% in FID score.
- Abstract(参考訳): 3dオブジェクトのテクスチャのヒントは、魅力的な視覚的表現の鍵であり、異なるビューにまたがる内在的な空間的一貫性を備えた高い視覚的忠実性を生み出すことができる。
テクスチャ付き3d形状の利用可能性は非常に限られているため、3d入力に基づいてテクスチャを予測する3d教師付きデータ駆動方式の学習は非常に困難である。
そこで本研究では,オブジェクトクラスの3次元形状データセットを活用し,高品質テクスチャ生成により実画像に観察された外観の分布を再現するganに基づく手法であるtexturifyを提案する。
特に,本手法では3次元オブジェクトのテクスチャを学習するために,形状形状と画像間の色調整や対応を一切必要としない。
texturifyは3dオブジェクトの表面上で直接動作し、階層的な4-rosyパラメトリゼーション上に顔畳み込み演算子を導入し、可能なオブジェクト特有のテクスチャを生成する。
個々のビューとビュー間の一貫性を批判する異なるレンダリングと逆方向の損失を利用して、実世界の画像から高品質な表面テクスチャ分布を効果的に学習する。
車体形状と椅子形状の収集実験により,FIDスコアが平均22%向上していることが判明した。
関連論文リスト
- Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - 3D-TexSeg: Unsupervised Segmentation of 3D Texture using Mutual
Transformer Learning [11.510823733292519]
本稿ではメッシュ多様体上の3次元テクスチャの教師なしセグメンテーションのための独自のフレームワークを提案する。
ラベル生成器とクリーナーを組み合わせた相互変換器を考案する。
多様なテクスチャパターンを持つ3つの公開データセットの実験は、提案フレームワークが標準およびSOTA教師なし技術より優れていることを示した。
論文 参考訳(メタデータ) (2023-11-17T17:13:14Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - 3D-GIF: 3D-Controllable Object Generation via Implicit Factorized
Representations [31.095503715696722]
本稿では、ビュー非依存かつ光異方性のある因子化表現と、ランダムにサンプリングされた光条件によるトレーニングスキームを提案する。
因子化表現,再照明画像,アルベドテクスチャメッシュを可視化することで,本手法の優位性を実証する。
これは、追加のラベルや仮定なしで、未提示の2Dイメージでアルベドテクスチャメッシュを抽出する最初の作業である。
論文 参考訳(メタデータ) (2022-03-12T15:23:17Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - Mask2CAD: 3D Shape Prediction by Learning to Segment and Retrieve [54.054575408582565]
本稿では,既存の3次元モデルの大規模データセットを活用し,画像中の物体の3次元構造を理解することを提案する。
本稿では,実世界の画像と検出対象を共同で検出するMask2CADについて,最も類似したCADモデルとそのポーズを最適化する。
これにより、画像内のオブジェクトのクリーンで軽量な表現が生成される。
論文 参考訳(メタデータ) (2020-07-26T00:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。