論文の概要: CTGAN: Semantic-guided Conditional Texture Generator for 3D Shapes
- arxiv url: http://arxiv.org/abs/2402.05728v1
- Date: Thu, 8 Feb 2024 15:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 14:42:14.264912
- Title: CTGAN: Semantic-guided Conditional Texture Generator for 3D Shapes
- Title(参考訳): CTGAN:3次元形状用セマンティックガイド型コンディショナルテクスチャジェネレータ
- Authors: Yi-Ting Pan, Chai-Rong Lee, Shu-Ho Fan, Jheng-Wei Su, Jia-Bin Huang,
Yung-Yu Chuang, Hung-Kuo Chu
- Abstract要約: StyleGANのような生成ネットワークには高度な画像合成があるが、高忠実なテクスチャを持つ3Dオブジェクトの生成はまだ十分に研究されていない。
本研究では,3次元形状の視角に整合した高品質なテクスチャを生産するセマンティック誘導型条件テクスチャジェネレータ(CTGAN)を提案する。
CTGANはStyleGANの歪んだ性質を利用して入力された潜伏符号を微調整し、生成されたテクスチャのスタイルと構造の両方を明示的に制御できる。
- 参考スコア(独自算出の注目度): 23.553141179900763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The entertainment industry relies on 3D visual content to create immersive
experiences, but traditional methods for creating textured 3D models can be
time-consuming and subjective. Generative networks such as StyleGAN have
advanced image synthesis, but generating 3D objects with high-fidelity textures
is still not well explored, and existing methods have limitations. We propose
the Semantic-guided Conditional Texture Generator (CTGAN), producing
high-quality textures for 3D shapes that are consistent with the viewing angle
while respecting shape semantics. CTGAN utilizes the disentangled nature of
StyleGAN to finely manipulate the input latent codes, enabling explicit control
over both the style and structure of the generated textures. A coarse-to-fine
encoder architecture is introduced to enhance control over the structure of the
resulting textures via input segmentation. Experimental results show that CTGAN
outperforms existing methods on multiple quality metrics and achieves
state-of-the-art performance on texture generation in both conditional and
unconditional settings.
- Abstract(参考訳): エンタテインメント業界は没入的な体験を作るために3dのビジュアルコンテンツに依存しているが、質感のある3dモデルを作る伝統的な方法は時間と主観的だ。
StyleGANのような生成ネットワークには高度な画像合成があるが、高忠実なテクスチャを持つ3Dオブジェクトの生成はまだ十分に検討されておらず、既存の手法には限界がある。
形状意味論を尊重しながら視角に整合した3次元形状の質の高いテクスチャを生成するセマンティック誘導条件テクスチャジェネレータ(CTGAN)を提案する。
ctganはstyleganの異方性を利用して入力潜在コードを操作し、生成されたテクスチャのスタイルと構造の両方を明示的に制御する。
入力セグメンテーションにより得られたテクスチャの構造の制御を強化するために、粗大なエンコーダアーキテクチャを導入する。
実験の結果,CTGANは複数の品質指標の既存手法よりも優れており,条件条件および非条件条件条件の両方でテクスチャ生成の最先端性能を実現していることがわかった。
関連論文リスト
- Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [58.77520205498394]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - Make-A-Texture: Fast Shape-Aware Texture Generation in 3 Seconds [11.238020531599405]
テキストプロンプトから高分解能テクスチャマップを効率的に合成する新しいフレームワークであるMake-A-Textureを提案する。
この手法の重要な特徴は、NVIDIA H100 GPUでわずか3.07秒のエンドツーエンドランタイム内で完全なテクスチャ生成を実現するという、その顕著な効率である。
本研究は,インタラクティブなテクスチャ作成やテキストガイドによるテクスチャ編集を含む,現実世界の3Dコンテンツ作成のためのテクスチャ生成モデルの適用性と実用性を大幅に改善する。
論文 参考訳(メタデータ) (2024-12-10T18:58:29Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - CG3D: Compositional Generation for Text-to-3D via Gaussian Splatting [57.14748263512924]
CG3Dは、スケーラブルな3Dアセットを合成的に生成する手法である。
ガンマ放射場は、オブジェクトの合成を可能にするためにパラメータ化され、意味的および物理的に一貫したシーンを可能にする能力を持っている。
論文 参考訳(メタデータ) (2023-11-29T18:55:38Z) - TAPS3D: Text-Guided 3D Textured Shape Generation from Pseudo Supervision [114.56048848216254]
テキスト誘導型3次元形状生成器を疑似キャプションで訓練するための新しいフレームワークTAPS3Dを提案する。
レンダリングされた2D画像に基づいて,CLIP語彙から関連する単語を検索し,テンプレートを用いて擬似キャプションを構築する。
構築したキャプションは、生成された3次元形状の高レベルなセマンティック管理を提供する。
論文 参考訳(メタデータ) (2023-03-23T13:53:16Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。