論文の概要: GeLaTO: Generative Latent Textured Objects
- arxiv url: http://arxiv.org/abs/2008.04852v1
- Date: Tue, 11 Aug 2020 16:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:12:06.931724
- Title: GeLaTO: Generative Latent Textured Objects
- Title(参考訳): GeLato: ジェネレーティブな潜在テクスチャオブジェクト
- Authors: Ricardo Martin-Brualla, Rohit Pandey, Sofien Bouaziz, Matthew Brown,
Dan B Goldman
- Abstract要約: Generative Latent Textured Objects (GeLaTO)は、低周波幾何学を定義する粗い形状のプロキシと学習された神経テクスチャを組み合わせたコンパクトな表現である。
眼鏡フレームの実際の画像のデータセットに結果を示すが、これは特にフォトリアリスティックな手法を用いて再構築することが困難である。
- 参考スコア(独自算出の注目度): 19.654444725146686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate modeling of 3D objects exhibiting transparency, reflections and thin
structures is an extremely challenging problem. Inspired by billboards and
geometric proxies used in computer graphics, this paper proposes Generative
Latent Textured Objects (GeLaTO), a compact representation that combines a set
of coarse shape proxies defining low frequency geometry with learned neural
textures, to encode both medium and fine scale geometry as well as
view-dependent appearance. To generate the proxies' textures, we learn a joint
latent space allowing category-level appearance and geometry interpolation. The
proxies are independently rasterized with their corresponding neural texture
and composited using a U-Net, which generates an output photorealistic image
including an alpha map. We demonstrate the effectiveness of our approach by
reconstructing complex objects from a sparse set of views. We show results on a
dataset of real images of eyeglasses frames, which are particularly challenging
to reconstruct using classical methods. We also demonstrate that these coarse
proxies can be handcrafted when the underlying object geometry is easy to
model, like eyeglasses, or generated using a neural network for more complex
categories, such as cars.
- Abstract(参考訳): 透明、反射、細い構造を示す3Dオブジェクトの正確なモデリングは非常に難しい問題である。
本稿では,コンピュータグラフィックスで使用される看板や幾何学的プロキシに触発されて,低周波幾何学を定義する粗い形状プロキシと学習された神経テクスチャを組み合わせたコンパクト表現であるgenerative latent textured objects (gelato)を提案する。
プロキシのテクスチャを生成するために,カテゴリレベルの外観と幾何学的補間が可能なジョイント潜在空間を学習する。
プロキシは、対応する神経テクスチャで独立にラスタライズされ、アルファマップを含む出力フォトリアリスティック画像を生成するU-Netを用いて合成される。
スパース・ビューから複雑なオブジェクトを再構成することで,提案手法の有効性を実証する。
眼鏡フレームの実際の画像のデータセットに結果を示すが、これは古典的手法による再構築が特に困難である。
また,これらの粗いプロキシは,眼鏡などの物体形状のモデル化が容易である場合や,車などの複雑なカテゴリに対してニューラルネットワークを用いて生成する場合に,手作りが可能であることを実証する。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - GlossyGS: Inverse Rendering of Glossy Objects with 3D Gaussian Splatting [21.23724172779984]
GlossyGSは、光沢のある物体の形状と素材を、素材の先行要素を統合することによって正確に再構築することを目的としている。
定量的解析と定性的可視化により, 提案手法は高忠実度ジオメトリーと光沢物体の材料を再構成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-10-17T09:00:29Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - ShaDDR: Interactive Example-Based Geometry and Texture Generation via 3D
Shape Detailization and Differentiable Rendering [24.622120688131616]
ShaDDRは、高分解能なテクスチャ化された3D形状を生成するサンプルベースのディープ生成ニューラルネットワークである。
本手法は,マルチレゾリューションボクセルアップサンプリングによる幾何学の精密化と,ボクセル表面のテクスチャの生成を学習する。
生成された形状は、入力された粗いボクセルモデルの全体構造を保存する。
論文 参考訳(メタデータ) (2023-06-08T02:35:30Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - Generative Deformable Radiance Fields for Disentangled Image Synthesis
of Topology-Varying Objects [52.46838926521572]
3D認識生成モデルは、モノクロ2D画像の集合から3Dニューラル放射場(NeRF)を生成するスーパーブパフォーマンスを実証した。
本研究では, トポロジー変化物体の放射場を非交絡形状と外観変化で合成する生成モデルを提案する。
論文 参考訳(メタデータ) (2022-09-09T08:44:06Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Pix2Surf: Learning Parametric 3D Surface Models of Objects from Images [64.53227129573293]
1つ以上の視点から見れば、新しいオブジェクトの3次元パラメトリック表面表現を学習する際の課題について検討する。
ビュー間で一貫した高品質なパラメトリックな3次元表面を生成できるニューラルネットワークを設計する。
提案手法は,共通対象カテゴリからの形状の公開データセットに基づいて,教師と訓練を行う。
論文 参考訳(メタデータ) (2020-08-18T06:33:40Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。