論文の概要: GOATex: Geometry & Occlusion-Aware Texturing
- arxiv url: http://arxiv.org/abs/2511.23051v1
- Date: Fri, 28 Nov 2025 10:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.855595
- Title: GOATex: Geometry & Occlusion-Aware Texturing
- Title(参考訳): GOATex:幾何学とオクルージョン・アウェア・テクスチャ
- Authors: Hyunjin Kim, Kunho Kim, Adam Lee, Wonkwang Lee,
- Abstract要約: 本稿では,3次元メッシュの拡散法であるGOATexについて述べる。
従来の作品とは異なり、GOATexは既存の手法を一貫して上回り、目に見える面と隠された面の両方にシームレスなテクスチャを生み出している。
- 参考スコア(独自算出の注目度): 5.9283915720047355
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present GOATex, a diffusion-based method for 3D mesh texturing that generates high-quality textures for both exterior and interior surfaces. While existing methods perform well on visible regions, they inherently lack mechanisms to handle occluded interiors, resulting in incomplete textures and visible seams. To address this, we introduce an occlusion-aware texturing framework based on the concept of hit levels, which quantify the relative depth of mesh faces via multi-view ray casting. This allows us to partition mesh faces into ordered visibility layers, from outermost to innermost. We then apply a two-stage visibility control strategy that progressively reveals interior regions with structural coherence, followed by texturing each layer using a pretrained diffusion model. To seamlessly merge textures obtained across layers, we propose a soft UV-space blending technique that weighs each texture's contribution based on view-dependent visibility confidence. Empirical results demonstrate that GOATex consistently outperforms existing methods, producing seamless, high-fidelity textures across both visible and occluded surfaces. Unlike prior works, GOATex operates entirely without costly fine-tuning of a pretrained diffusion model and allows separate prompting for exterior and interior mesh regions, enabling fine-grained control over layered appearances. For more qualitative results, please visit our project page: https://goatex3d.github.io/.
- Abstract(参考訳): 本稿では,3次元メッシュテクスチャの拡散法であるGOATexについて述べる。
既存の手法は目に見える領域でうまく機能するが、本来は隠された内部を扱うメカニズムが欠如しており、不完全なテクスチャや目に見えるシームをもたらす。
そこで本研究では,マルチビューレイキャスティングによるメッシュ面の相対深度を定量化する,ヒットレベルの概念に基づくオクルージョン対応テクスチャリングフレームワークを提案する。
これにより、メッシュの顔を最外側から最内側まで、順序付けられた可視層に分割することができます。
次に,2段階の可視性制御手法を適用し,構造的コヒーレンスを持つ内部領域を段階的に明らかにし,事前訓練した拡散モデルを用いて各層をテクスチャ化する。
層間で得られたテクスチャをシームレスにマージするために,ビュー依存の視認性に基づいた各テクスチャのコントリビューションを計測するソフトなUV空間ブレンディング手法を提案する。
実証的な結果は、GOATexが既存の手法を一貫して上回り、目に見える面と隠蔽面の両方にわたってシームレスで高忠実なテクスチャを生み出していることを示している。
従来の作業とは異なり、GOATexは事前訓練された拡散モデルの微調整を一切行わず、外部および内部メッシュ領域の分離プロンプトを可能にし、層状外観のきめ細かい制御を可能にする。
より質的な結果については、プロジェクトのページを参照してください。
関連論文リスト
- TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - DoubleDiffusion: Combining Heat Diffusion with Denoising Diffusion for Texture Generation on 3D Meshes [67.39455433337316]
本稿では,3次元メッシュ上でテクスチャを直接生成する手法を提案する。
この手法を生成拡散パイプラインに統合することにより,テクスチャ生成の効率を大幅に向上する。
論文 参考訳(メタデータ) (2025-01-06T21:34:52Z) - NeRF-Texture: Synthesizing Neural Radiance Field Textures [77.24205024987414]
与えられた多視点画像からテクスチャを捕捉・合成するためのニューラルレージアンス場(NeRF)を用いた新しいテクスチャ合成法を提案する。
提案したNeRFテクスチャ表現では、微細な幾何学的詳細を持つシーンをメソ構造テクスチャと基盤形状に分割する。
我々は潜伏特徴のパッチマッチングによってNeRFベースのテクスチャを合成できる。
論文 参考訳(メタデータ) (2024-12-13T09:41:48Z) - Make-A-Texture: Fast Shape-Aware Texture Generation in 3 Seconds [11.238020531599405]
テキストプロンプトから高分解能テクスチャマップを効率的に合成する新しいフレームワークであるMake-A-Textureを提案する。
この手法の重要な特徴は、NVIDIA H100 GPUでわずか3.07秒のエンドツーエンドランタイム内で完全なテクスチャ生成を実現するという、その顕著な効率である。
本研究は,インタラクティブなテクスチャ作成やテキストガイドによるテクスチャ編集を含む,現実世界の3Dコンテンツ作成のためのテクスチャ生成モデルの適用性と実用性を大幅に改善する。
論文 参考訳(メタデータ) (2024-12-10T18:58:29Z) - RoCoTex: A Robust Method for Consistent Texture Synthesis with Diffusion Models [3.714901836138171]
メッシュに整合した一貫性とシームレスなテクスチャを生成するための頑健なテキスト・ツー・テクスチャ手法を提案する。
本手法では,SDXLや複数制御ネットなどの最先端2次元拡散モデルを用いて,構造的特徴を捉えるとともに,テクスチャの複雑な詳細を抽出する。
論文 参考訳(メタデータ) (2024-09-30T06:29:50Z) - Single Mesh Diffusion Models with Field Latents for Texture Generation [18.78126579775479]
本稿では,3次元形状の表面に直接作用する固有潜在拡散モデルを提案する。
私たちは、メッシュ上の特定のテクスチャのバリエーションを生成するために、モデルがトレーニングされる、単一テクスチャ・メシュのパラダイムを考えています。
我々のモデルは、インペイントやラベル誘導生成などのユーザ制御編集タスクにも適応できる。
論文 参考訳(メタデータ) (2023-12-14T18:59:36Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。