論文の概要: Mesh2Tex: Generating Mesh Textures from Image Queries
- arxiv url: http://arxiv.org/abs/2304.05868v1
- Date: Wed, 12 Apr 2023 13:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 14:53:30.722994
- Title: Mesh2Tex: Generating Mesh Textures from Image Queries
- Title(参考訳): Mesh2Tex:イメージクエリからメッシュテクスチャを生成する
- Authors: Alexey Bokhovkin, Shubham Tulsiani, Angela Dai
- Abstract要約: 特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
- 参考スコア(独自算出の注目度): 45.32242590651395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Remarkable advances have been achieved recently in learning neural
representations that characterize object geometry, while generating textured
objects suitable for downstream applications and 3D rendering remains at an
early stage. In particular, reconstructing textured geometry from images of
real objects is a significant challenge -- reconstructed geometry is often
inexact, making realistic texturing a significant challenge. We present
Mesh2Tex, which learns a realistic object texture manifold from uncorrelated
collections of 3D object geometry and photorealistic RGB images, by leveraging
a hybrid mesh-neural-field texture representation. Our texture representation
enables compact encoding of high-resolution textures as a neural field in the
barycentric coordinate system of the mesh faces. The learned texture manifold
enables effective navigation to generate an object texture for a given 3D
object geometry that matches to an input RGB image, which maintains robustness
even under challenging real-world scenarios where the mesh geometry
approximates an inexact match to the underlying geometry in the RGB image.
Mesh2Tex can effectively generate realistic object textures for an object mesh
to match real images observations towards digitization of real environments,
significantly improving over previous state of the art.
- Abstract(参考訳): 近年、オブジェクトの幾何学を特徴付けるニューラル表現の学習において、下流アプリケーションや3dレンダリングに適したテクスチャオブジェクトの生成は、まだ初期段階にある。
特に、実際の物体の画像からテクスチャ化された幾何学を再構築することは重要な課題である。
本稿では,ハイブリッドメッシュ-ニューラルネットワーク-テクスチャ表現を利用して,非相関な3次元オブジェクト形状とフォトリアリスティックRGB画像からリアルなオブジェクトテクスチャ多様体を学習するMesh2Texを提案する。
我々のテクスチャ表現は、メッシュ面の偏心座標系におけるニューラルネットワークとしての高分解能テクスチャのコンパクト符号化を可能にする。
学習されたテクスチャ多様体は、入力されたrgb画像にマッチする所定の3dオブジェクト形状のオブジェクトテクスチャを生成する効果的なナビゲーションを可能にする。
mesh2texは、実際のイメージの観察と実際の環境のデジタル化にマッチするように、オブジェクトメッシュの現実的なオブジェクトテクスチャを効果的に生成することができる。
関連論文リスト
- 3DTextureTransformer: Geometry Aware Texture Generation for Arbitrary
Mesh Topology [1.4349415652822481]
3Dメッシュと実世界の2D画像の集合が与えられた新しい3Dメッシュのテクスチャを生成することを学ぶことは、3Dシミュレーション、拡張現実、仮想現実、ゲーム、アーキテクチャ、デザインなど、さまざまな領域のアプリケーションにとって重要な問題である。
既存のソリューションは、高品質なテクスチャを生成したり、元の高解像度の入力メッシュトポロジを正規のグリッドに変形させたりすることで、この生成を容易にするが、元のメッシュトポロジを失う。
本稿では,3DTextureTransformerという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T05:01:07Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Learning Neural Implicit Representations with Surface Signal
Parameterizations [14.835882967340968]
本稿では,外見データに適した表面パラメータ化を暗黙的に符号化するニューラルネットワークアーキテクチャを提案する。
私たちのモデルは、既存のメッシュベースのデジタルコンテンツと外見データとの互換性が保たれています。
論文 参考訳(メタデータ) (2022-11-01T15:10:58Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - Projective Urban Texturing [8.349665441428925]
没入型都市環境における3次元都市メッシュのテクスチャ自動生成手法を提案する。
Projective Urban Texturing (PUT)は、実際のパノラマ画像から見えない都市メッシュへのテクスチャスタイルを再ターゲットする。
PUTは、未ペア画像からテクスチャへの変換用に設計されたニューラルアーキテクチャの、対照的で敵対的なトレーニングに依存している。
論文 参考訳(メタデータ) (2022-01-25T14:56:52Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。