論文の概要: Consistent Zero-shot 3D Texture Synthesis Using Geometry-aware Diffusion and Temporal Video Models
- arxiv url: http://arxiv.org/abs/2506.20946v1
- Date: Thu, 26 Jun 2025 02:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.944993
- Title: Consistent Zero-shot 3D Texture Synthesis Using Geometry-aware Diffusion and Temporal Video Models
- Title(参考訳): 幾何学的拡散と時間的ビデオモデルを用いた一貫したゼロショット3次元テクスチャ合成
- Authors: Donggoo Kang, Jangyeong Kim, Dasol Jeong, Junyoung Choi, Jeonga Wi, Hyunmin Lee, Joonho Gwon, Joonki Paik,
- Abstract要約: VideoTexはシームレスなテクスチャ合成のための新しいフレームワークである。
ビデオ生成モデルを利用して、3Dテクスチャの空間的および時間的不整合に対処する。
提案手法は,3次元メッシュ構造の正確な利用を可能にする幾何学的条件を取り入れたものである。
- 参考スコア(独自算出の注目度): 7.273355054071033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current texture synthesis methods, which generate textures from fixed viewpoints, suffer from inconsistencies due to the lack of global context and geometric understanding. Meanwhile, recent advancements in video generation models have demonstrated remarkable success in achieving temporally consistent videos. In this paper, we introduce VideoTex, a novel framework for seamless texture synthesis that leverages video generation models to address both spatial and temporal inconsistencies in 3D textures. Our approach incorporates geometry-aware conditions, enabling precise utilization of 3D mesh structures. Additionally, we propose a structure-wise UV diffusion strategy, which enhances the generation of occluded areas by preserving semantic information, resulting in smoother and more coherent textures. VideoTex not only achieves smoother transitions across UV boundaries but also ensures high-quality, temporally stable textures across video frames. Extensive experiments demonstrate that VideoTex outperforms existing methods in texture fidelity, seam blending, and stability, paving the way for dynamic real-time applications that demand both visual quality and temporal coherence.
- Abstract(参考訳): 固定的な視点からテクスチャを生成する現在のテクスチャ合成法は,グローバルな文脈の欠如と幾何学的理解の欠如により不整合に悩まされている。
一方、ビデオ生成モデルの最近の進歩は、時間的に一貫したビデオの実現に顕著な成功を収めている。
本稿では3次元テクスチャにおける空間的および時間的不整合に対処するためにビデオ生成モデルを活用する,シームレスなテクスチャ合成のための新しいフレームワークであるVideoTexを紹介する。
提案手法は,3次元メッシュ構造の正確な利用を可能にする幾何学的条件を取り入れたものである。
さらに,セマンティック情報を保存することにより,閉鎖領域の生成を促進し,よりスムーズでコヒーレントなテクスチャを実現する構造的UV拡散戦略を提案する。
VideoTexは、UV境界を越えたスムーズな遷移を実現するだけでなく、ビデオフレーム全体で高品質で時間的に安定したテクスチャを実現する。
大規模な実験により、VideoTexはテクスチャの忠実さ、シームブレンディング、安定性において既存の手法よりも優れており、視覚的品質と時間的コヒーレンスの両方を必要とする動的リアルタイムアプリケーションへの道を開いた。
関連論文リスト
- RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - InsTex: Indoor Scenes Stylized Texture Synthesis [81.12010726769768]
拡張現実(ARVR)アプリケーションでは、高品質なテクスチャが3Dシーンに不可欠である。
現在の手法は、長い処理時間と視覚的アーティファクトに悩まされている。
3Dシーンのための高品質なテクスチャを生成するために設計された2段階アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-01-22T08:37:59Z) - Tex4D: Zero-shot 4D Scene Texturing with Video Diffusion Models [54.35214051961381]
3Dメッシュはコンピュータビジョンとグラフィックスにおいて、アニメーションの効率と映画、ゲーム、AR、VRにおける最小限のメモリ使用のために広く利用されている。
しかし、メッシュのための時間的一貫性と現実的なテクスチャを作成することは、プロのアーティストにとって労働集約的だ。
本稿では、メッシュ配列から固有の幾何学とビデオ拡散モデルを統合することで、一貫したテクスチャを生成する3Dテクスチャシーケンスを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:59Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。