論文の概要: CTGAN: Semantic-guided Conditional Texture Generator for 3D Shapes
- arxiv url: http://arxiv.org/abs/2402.05728v1
- Date: Thu, 8 Feb 2024 15:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 14:42:14.264912
- Title: CTGAN: Semantic-guided Conditional Texture Generator for 3D Shapes
- Title(参考訳): CTGAN:3次元形状用セマンティックガイド型コンディショナルテクスチャジェネレータ
- Authors: Yi-Ting Pan, Chai-Rong Lee, Shu-Ho Fan, Jheng-Wei Su, Jia-Bin Huang,
Yung-Yu Chuang, Hung-Kuo Chu
- Abstract要約: StyleGANのような生成ネットワークには高度な画像合成があるが、高忠実なテクスチャを持つ3Dオブジェクトの生成はまだ十分に研究されていない。
本研究では,3次元形状の視角に整合した高品質なテクスチャを生産するセマンティック誘導型条件テクスチャジェネレータ(CTGAN)を提案する。
CTGANはStyleGANの歪んだ性質を利用して入力された潜伏符号を微調整し、生成されたテクスチャのスタイルと構造の両方を明示的に制御できる。
- 参考スコア(独自算出の注目度): 23.553141179900763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The entertainment industry relies on 3D visual content to create immersive
experiences, but traditional methods for creating textured 3D models can be
time-consuming and subjective. Generative networks such as StyleGAN have
advanced image synthesis, but generating 3D objects with high-fidelity textures
is still not well explored, and existing methods have limitations. We propose
the Semantic-guided Conditional Texture Generator (CTGAN), producing
high-quality textures for 3D shapes that are consistent with the viewing angle
while respecting shape semantics. CTGAN utilizes the disentangled nature of
StyleGAN to finely manipulate the input latent codes, enabling explicit control
over both the style and structure of the generated textures. A coarse-to-fine
encoder architecture is introduced to enhance control over the structure of the
resulting textures via input segmentation. Experimental results show that CTGAN
outperforms existing methods on multiple quality metrics and achieves
state-of-the-art performance on texture generation in both conditional and
unconditional settings.
- Abstract(参考訳): エンタテインメント業界は没入的な体験を作るために3dのビジュアルコンテンツに依存しているが、質感のある3dモデルを作る伝統的な方法は時間と主観的だ。
StyleGANのような生成ネットワークには高度な画像合成があるが、高忠実なテクスチャを持つ3Dオブジェクトの生成はまだ十分に検討されておらず、既存の手法には限界がある。
形状意味論を尊重しながら視角に整合した3次元形状の質の高いテクスチャを生成するセマンティック誘導条件テクスチャジェネレータ(CTGAN)を提案する。
ctganはstyleganの異方性を利用して入力潜在コードを操作し、生成されたテクスチャのスタイルと構造の両方を明示的に制御する。
入力セグメンテーションにより得られたテクスチャの構造の制御を強化するために、粗大なエンコーダアーキテクチャを導入する。
実験の結果,CTGANは複数の品質指標の既存手法よりも優れており,条件条件および非条件条件条件の両方でテクスチャ生成の最先端性能を実現していることがわかった。
関連論文リスト
- Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - CG3D: Compositional Generation for Text-to-3D via Gaussian Splatting [57.14748263512924]
CG3Dは、スケーラブルな3Dアセットを合成的に生成する手法である。
ガンマ放射場は、オブジェクトの合成を可能にするためにパラメータ化され、意味的および物理的に一貫したシーンを可能にする能力を持っている。
論文 参考訳(メタデータ) (2023-11-29T18:55:38Z) - TAPS3D: Text-Guided 3D Textured Shape Generation from Pseudo Supervision [114.56048848216254]
テキスト誘導型3次元形状生成器を疑似キャプションで訓練するための新しいフレームワークTAPS3Dを提案する。
レンダリングされた2D画像に基づいて,CLIP語彙から関連する単語を検索し,テンプレートを用いて擬似キャプションを構築する。
構築したキャプションは、生成された3次元形状の高レベルなセマンティック管理を提供する。
論文 参考訳(メタデータ) (2023-03-23T13:53:16Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。