論文の概要: TEXTRIX: Latent Attribute Grid for Native Texture Generation and Beyond
- arxiv url: http://arxiv.org/abs/2512.02993v1
- Date: Tue, 02 Dec 2025 18:18:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.999689
- Title: TEXTRIX: Latent Attribute Grid for Native Texture Generation and Beyond
- Title(参考訳): TEXTRIX: ネイティブテクスチャ生成などのための潜在属性グリッド
- Authors: Yifei Zeng, Yajie Bao, Jiachen Qian, Shuang Wu, Youtian Lin, Hao Zhu, Buyu Li, Feihu Zhang, Xun Cao, Yao Yao,
- Abstract要約: TEXTRIXは、高忠実なテクスチャ合成と下流アプリケーションのためのネイティブな3D属性生成フレームワークである。
提案手法は遅延型3D属性グリッドを構築し, スパースアテンションを備えた拡散変圧器を利用する。
このネイティブ表現に基づいて構築されたこのフレームワークは、グリッド上のセマンティック属性を予測するために同じアーキテクチャをトレーニングすることで、自然に高精度な3Dセグメンテーションに拡張する。
- 参考スコア(独自算出の注目度): 42.93031959503468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prevailing 3D texture generation methods, which often rely on multi-view fusion, are frequently hindered by inter-view inconsistencies and incomplete coverage of complex surfaces, limiting the fidelity and completeness of the generated content. To overcome these challenges, we introduce TEXTRIX, a native 3D attribute generation framework for high-fidelity texture synthesis and downstream applications such as precise 3D part segmentation. Our approach constructs a latent 3D attribute grid and leverages a Diffusion Transformer equipped with sparse attention, enabling direct coloring of 3D models in volumetric space and fundamentally avoiding the limitations of multi-view fusion. Built upon this native representation, the framework naturally extends to high-precision 3D segmentation by training the same architecture to predict semantic attributes on the grid. Extensive experiments demonstrate state-of-the-art performance on both tasks, producing seamless, high-fidelity textures and accurate 3D part segmentation with precise boundaries.
- Abstract(参考訳): 一般的な3次元テクスチャ生成法は、しばしば多視点融合に依存するが、ビュー間の不整合や複雑な表面の不完全カバレッジによってしばしば妨げられ、生成したコンテンツの忠実さと完全性を制限する。
これらの課題を克服するために,高忠実度テクスチャ合成のためのネイティブな3D属性生成フレームワークであるTEXTRIXと,正確な3D部分分割などの下流アプリケーションを紹介する。
提案手法は遅延型3D属性グリッドを構築し,疎注意機能を備えた拡散変換器を活用し,体積空間における3Dモデルの直接着色を可能にし,マルチビュー融合の限界を根本的に回避する。
このネイティブ表現に基づいて構築されたこのフレームワークは、グリッド上のセマンティック属性を予測するために同じアーキテクチャをトレーニングすることで、自然に高精度な3Dセグメンテーションに拡張する。
広範囲にわたる実験により、両タスクの最先端性能が実証され、シームレスで高忠実なテクスチャと正確な境界を持つ正確な3D部分セグメンテーションが生み出された。
関連論文リスト
- NaTex: Seamless Texture Generation as Latent Color Diffusion [23.99275629136662]
本研究では,3次元空間で直接テクスチャ色を予測するネイティブテクスチャ生成フレームワークNaTexを提案する。
NaTexはMVDパイプラインに固有のいくつかの制限を避ける。
論文 参考訳(メタデータ) (2025-11-20T12:47:22Z) - UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - Step1X-3D: Towards High-Fidelity and Controllable Generation of Textured 3D Assets [90.99212668875971]
Step1X-3Dは、データの不足、アルゴリズムの制限、エコシステムの断片化といった課題に対処するオープンフレームワークである。
拡散型テクスチャ合成モジュールとハイブリッドVAE-DiTジオメトリジェネレータを組み合わせた2段階の3Dネイティブアーキテクチャを提案する。
ベンチマークの結果は、既存のオープンソースメソッドを超える最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-05-12T16:56:30Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - Direct and Explicit 3D Generation from a Single Image [25.207277983430608]
マルチビュー2次元深度画像とRGB画像を用いて表面形状とテクスチャを直接生成する新しいフレームワークを提案する。
画素レベルの多視点整合性を実現するために,エピポーラの注意を潜時から画素間デコーダに組み込む。
生成した深度画素を3次元空間にバックプロジェクションすることにより、構造化された3次元表現を生成する。
論文 参考訳(メタデータ) (2024-11-17T03:14:50Z) - GaussianAnything: Interactive Point Cloud Flow Matching For 3D Object Generation [75.39457097832113]
本稿では,インタラクティブなポイントクラウド構造ラテント空間を備えたスケーラブルで高品質な3D生成を実現する,新しい3D生成フレームワークを提案する。
本フレームワークでは,複数ビューのRGB-D(epth)-N(ormal)レンダリングを入力として使用する変分オートエンコーダを,3次元形状情報を保存する独自のラテント空間設計を用いて構成する。
提案手法であるGaussianAnythingは,複数モード条件付き3D生成をサポートし,ポイントクラウド,キャプション,単一画像入力を可能にする。
論文 参考訳(メタデータ) (2024-11-12T18:59:32Z) - CTGAN: Semantic-guided Conditional Texture Generator for 3D Shapes [23.553141179900763]
StyleGANのような生成ネットワークには高度な画像合成があるが、高忠実なテクスチャを持つ3Dオブジェクトの生成はまだ十分に研究されていない。
本研究では,3次元形状の視角に整合した高品質なテクスチャを生産するセマンティック誘導型条件テクスチャジェネレータ(CTGAN)を提案する。
CTGANはStyleGANの歪んだ性質を利用して入力された潜伏符号を微調整し、生成されたテクスチャのスタイルと構造の両方を明示的に制御できる。
論文 参考訳(メタデータ) (2024-02-08T15:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。