論文の概要: A Scalable Attention-Based Approach for Image-to-3D Texture Mapping
- arxiv url: http://arxiv.org/abs/2509.05131v1
- Date: Fri, 05 Sep 2025 14:18:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.610544
- Title: A Scalable Attention-Based Approach for Image-to-3D Texture Mapping
- Title(参考訳): 画像から3次元のテクスチャマッピングのためのスケーラブルアテンションに基づくアプローチ
- Authors: Arianna Rampini, Kanika Madan, Bruno Roy, AmirHossein Zamani, Derek Cheung,
- Abstract要約: 高品質なテクスチャは、リアルな3Dコンテンツ作成に不可欠です。
既存の生成法は遅く、紫外線マップに依存しており、しばしば参照画像に忠実に保たない。
本稿では,1つの画像とメッシュから直接3次元テクスチャ場を予測するトランスフォーマーベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.8476192001237597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality textures are critical for realistic 3D content creation, yet existing generative methods are slow, rely on UV maps, and often fail to remain faithful to a reference image. To address these challenges, we propose a transformer-based framework that predicts a 3D texture field directly from a single image and a mesh, eliminating the need for UV mapping and differentiable rendering, and enabling faster texture generation. Our method integrates a triplane representation with depth-based backprojection losses, enabling efficient training and faster inference. Once trained, it generates high-fidelity textures in a single forward pass, requiring only 0.2s per shape. Extensive qualitative, quantitative, and user preference evaluations demonstrate that our method outperforms state-of-the-art baselines on single-image texture reconstruction in terms of both fidelity to the input image and perceptual quality, highlighting its practicality for scalable, high-quality, and controllable 3D content creation.
- Abstract(参考訳): 高品質なテクスチャはリアルな3Dコンテンツ作成には不可欠だが、既存の生成手法は遅く、紫外線マップに依存しており、しばしば参照画像に忠実に保たない。
これらの課題に対処するために,1つの画像とメッシュから直接3次元テクスチャフィールドを予測し,UVマッピングや微分レンダリングの必要性を排除し,より高速なテクスチャ生成を実現するトランスフォーマーベースのフレームワークを提案する。
提案手法は,三面体表現と深度に基づく後方投影損失を統合し,効率的なトレーニングと高速な推論を可能にする。
訓練後、単一の前方パスで高忠実なテクスチャを生成し、1つの形状に0.2秒しか必要としない。
広汎な質的,定量的,ユーザの嗜好評価は,入力画像への忠実さと知覚的品質の両方の観点から,単一画像のテクスチャ再構築における最先端のベースラインよりも優れており,スケーラブルで高品質で制御可能な3Dコンテンツ作成のための実用性を強調している。
関連論文リスト
- UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes [35.667175445637604]
二段階テクスチャ生成フレームワークUniTEXを提案する。
UniTEXは、既存のアプローチに比べて視覚的品質とテクスチャの整合性が優れている。
論文 参考訳(メタデータ) (2025-05-29T08:58:41Z) - TriTex: Learning Texture from a Single Mesh via Triplane Semantic Features [78.13246375582906]
本研究では,1つのテクスチャメッシュから体積テクスチャ場を学習し,セマンティックな特徴を対象色にマッピングする手法を提案する。
本手法は,ゲーム開発などのアプリケーションにおいて,3次元モデル間で優れたテクスチャ品質を実現する。
論文 参考訳(メタデータ) (2025-03-20T18:35:03Z) - Make-A-Texture: Fast Shape-Aware Texture Generation in 3 Seconds [11.238020531599405]
テキストプロンプトから高分解能テクスチャマップを効率的に合成する新しいフレームワークであるMake-A-Textureを提案する。
この手法の重要な特徴は、NVIDIA H100 GPUでわずか3.07秒のエンドツーエンドランタイム内で完全なテクスチャ生成を実現するという、その顕著な効率である。
本研究は,インタラクティブなテクスチャ作成やテキストガイドによるテクスチャ編集を含む,現実世界の3Dコンテンツ作成のためのテクスチャ生成モデルの適用性と実用性を大幅に改善する。
論文 参考訳(メタデータ) (2024-12-10T18:58:29Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - HiFiHR: Enhancing 3D Hand Reconstruction from a Single Image via
High-Fidelity Texture [40.012406098563204]
一つの画像から学習フレームワークのレンダリング・アンド・コンパレンスを利用する高忠実手再構成手法であるHiFiHRを提案する。
FreiHAND や HO-3D などの公開ベンチマークによる実験結果から, テクスチャ再構築における手作り工法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-08-25T18:48:40Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images
Using Graph Convolutional Networks [32.859340851346786]
本研究では,一眼レフ画像から高忠実度テクスチャで3次元顔形状を再構成する手法を提案する。
提案手法は, 質的, 定量的な比較において, 高品質な結果を生成し, 最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-03-12T08:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。