論文の概要: PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models
- arxiv url: http://arxiv.org/abs/2505.22394v1
- Date: Wed, 28 May 2025 14:23:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.64861
- Title: PacTure: Efficient PBR Texture Generation on Packed Views with Visual Autoregressive Models
- Title(参考訳): PacTure:視覚的自己回帰モデルを用いたパッケージビュー上での効率的なPBRテクスチャ生成
- Authors: Fan Fei, Jiajun Tang, Fei-Peng Tian, Boxin Shi, Ping Tan,
- Abstract要約: PacTureは、未ドメインの3Dメッシュから物理ベースのレンダリング(PBR)素材テクスチャを生成するためのフレームワークである。
ビューパッキング(View Packing)は、ビュー毎の有効解像度を高める新しいテクニックである。
- 参考スコア(独自算出の注目度): 73.4445896872942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PacTure, a novel framework for generating physically-based rendering (PBR) material textures from an untextured 3D mesh, a text description, and an optional image prompt. Early 2D generation-based texturing approaches generate textures sequentially from different views, resulting in long inference times and globally inconsistent textures. More recent approaches adopt multi-view generation with cross-view attention to enhance global consistency, which, however, limits the resolution for each view. In response to these weaknesses, we first introduce view packing, a novel technique that significantly increases the effective resolution for each view during multi-view generation without imposing additional inference cost, by formulating the arrangement of multi-view maps as a 2D rectangle bin packing problem. In contrast to UV mapping, it preserves the spatial proximity essential for image generation and maintains full compatibility with current 2D generative models. To further reduce the inference cost, we enable fine-grained control and multi-domain generation within the next-scale prediction autoregressive framework to create an efficient multi-view multi-domain generative backbone. Extensive experiments show that PacTure outperforms state-of-the-art methods in both quality of generated PBR textures and efficiency in training and inference.
- Abstract(参考訳): PacTureは、物理ベースレンダリング(PBR)素材テクスチャを、テクスチャのない3Dメッシュ、テキスト記述、オプションの画像プロンプトから生成する新しいフレームワークである。
初期の2次元世代ベースのテクスチャアプローチは、異なるビューから順次テクスチャを生成し、長い推論時間と世界的な一貫性のないテクスチャをもたらす。
近年のアプローチでは、グローバルな一貫性を高めるために、クロスビューを考慮したマルチビュー生成が採用されているが、各ビューの解像度は制限されている。
これらの弱点に対応するために,我々はまず,複数ビューマップの配置を2次元長方形ビンパッキング問題として定式化することにより,追加の推論コストを伴わずに,各ビューの有効解像度を大幅に向上するビューパッキングを導入する。
UVマッピングとは対照的に、画像生成に必要な空間的近接性を保ち、現在の2次元生成モデルとの完全な互換性を維持する。
推論コストをさらに削減するため、次世代の予測自己回帰フレームワークにおけるきめ細かい制御とマルチドメイン生成を可能にし、効率的なマルチビューマルチドメイン生成バックボーンを作成する。
大規模な実験により、PacTureは、生成したPBRテクスチャの品質と、トレーニングと推論の効率の両方において、最先端の手法より優れていることが示された。
関連論文リスト
- MVPainter: Accurate and Detailed 3D Texture Generation via Multi-View Diffusion with Geometric Control [1.8463601973573158]
基準テクスチャアライメント,幾何テクスチャ一貫性,局所テクスチャ品質の3次元レンズによる3次元テクスチャ生成について検討した。
本稿では,テクスチャの忠実度と詳細性を高めるために,データフィルタリングと拡張戦略を利用するMVPainterを提案する。
実世界のレンダリングアプリケーションに適したPBRメッシュを生成するために、生成したビューから物理ベースレンダリング(PBR)属性を抽出する。
論文 参考訳(メタデータ) (2025-05-19T02:40:24Z) - RomanTex: Decoupling 3D-aware Rotary Positional Embedded Multi-Attention Network for Texture Synthesis [10.350576861948952]
RomanTexはマルチビューベースのテクスチャ生成フレームワークで、マルチアテンションネットワークと基礎となる3D表現を統合している。
本手法はテクスチャの品質と整合性を実現する。
論文 参考訳(メタデータ) (2025-03-24T17:56:11Z) - Pandora3D: A Comprehensive Framework for High-Quality 3D Shape and Texture Generation [56.862552362223425]
本稿では,多様な入力プロンプトから高品質な3次元形状とテクスチャを生成するための包括的枠組みを提案する。
フレームワークは3次元形状生成とテクスチャ生成で構成されている。
本報告では,フレームワークの改良と拡張に向けたシステムアーキテクチャ,実験結果,今後の方向性について述べる。
論文 参考訳(メタデータ) (2025-02-20T04:22:30Z) - Flex3D: Feed-Forward 3D Generation With Flexible Reconstruction Model And Input View Curation [61.040832373015014]
テキスト, 単一画像, スパース画像から高品質な3Dコンテンツを生成するための新しいフレームワークFlex3Dを提案する。
我々は、微調整された多視点画像拡散モデルとビデオ拡散モデルを用いて、候補視のプールを生成し、ターゲット3Dオブジェクトのリッチな表現を可能にする。
第2段階では、キュレートされたビューは、任意の数の入力を効果的に処理できるトランスフォーマーアーキテクチャ上に構築されたフレキシブルリコンストラクションモデル(FlexRM)に入力されます。
論文 参考訳(メタデータ) (2024-10-01T17:29:43Z) - GenesisTex2: Stable, Consistent and High-Quality Text-to-Texture Generation [35.04723374116026]
大規模テキスト・トゥ・イメージ(T2I)モデルは、テキスト・トゥ・イメージ(T2I)生成において驚くべき結果を示している。
これらのモデルを用いて3次元ジオメトリーのテクスチャを合成することは、2次元画像と3次元表面のテクスチャとの領域ギャップのために依然として困難である。
本稿では,事前学習した拡散モデルを活用する新しいテキスト・テクスチャ合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T02:32:42Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。