論文の概要: SF3D: Stable Fast 3D Mesh Reconstruction with UV-unwrapping and Illumination Disentanglement
- arxiv url: http://arxiv.org/abs/2408.00653v1
- Date: Thu, 1 Aug 2024 15:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 20:06:59.380686
- Title: SF3D: Stable Fast 3D Mesh Reconstruction with UV-unwrapping and Illumination Disentanglement
- Title(参考訳): SF3D:UVアンラッピングとイルミネーションを併用した高速3次元メッシュ再構成
- Authors: Mark Boss, Zixuan Huang, Aaryaman Vasishta, Varun Jampani,
- Abstract要約: SF3Dは,単一画像から0.5秒で高速かつ高品質なテクスチャ化されたオブジェクトメッシュ再構成手法である。
実験では、既存の技術よりもSF3Dの方が優れた性能を示す。
- 参考スコア(独自算出の注目度): 37.56466951812772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SF3D, a novel method for rapid and high-quality textured object mesh reconstruction from a single image in just 0.5 seconds. Unlike most existing approaches, SF3D is explicitly trained for mesh generation, incorporating a fast UV unwrapping technique that enables swift texture generation rather than relying on vertex colors. The method also learns to predict material parameters and normal maps to enhance the visual quality of the reconstructed 3D meshes. Furthermore, SF3D integrates a delighting step to effectively remove low-frequency illumination effects, ensuring that the reconstructed meshes can be easily used in novel illumination conditions. Experiments demonstrate the superior performance of SF3D over the existing techniques. Project page: https://stable-fast-3d.github.io
- Abstract(参考訳): SF3Dは,単一画像から0.5秒で高速かつ高品質なテクスチャ化されたオブジェクトメッシュ再構成手法である。
既存のほとんどのアプローチとは異なり、SF3Dはメッシュ生成のために明示的にトレーニングされており、頂点色に頼るのではなく、迅速にテクスチャ生成を可能にする高速なUVアンラッピング技術が組み込まれている。
また, 3Dメッシュの視覚的品質を高めるために, 材料パラメータと正規マップの予測も行う。
さらに、SF3Dは喜びのステップを統合して、低周波照明効果を効果的に除去し、再構成メッシュを新しい照明条件で容易に使用できるようにする。
実験では、既存の技術よりもSF3Dの方が優れた性能を示す。
プロジェクトページ: https://stable-fast-3d.github.io
関連論文リスト
- TEXGen: a Generative Diffusion Model for Mesh Textures [63.43159148394021]
我々は、UVテクスチャ空間自体における学習の根本的な問題に焦点を当てる。
本稿では,点クラウド上にアテンション層を持つUVマップ上の畳み込みをインターリーブするスケーラブルなネットワークアーキテクチャを提案する。
テキストプロンプトとシングルビュー画像によって導かれるUVテクスチャマップを生成する7億のパラメータ拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-11-22T05:22:11Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - LATTE3D: Large-scale Amortized Text-To-Enhanced3D Synthesis [76.43669909525488]
LATTE3Dは400msで3Dオブジェクトを生成し、高速なテストタイム最適化でさらに拡張することができる。
LATTE3Dを導入し、これらの制限に対処し、より大きなプロンプトセット上で高速で高品質な生成を実現する。
論文 参考訳(メタデータ) (2024-03-22T17:59:37Z) - Paint3D: Paint Anything 3D with Lighting-Less Texture Diffusion Models [34.715076045118444]
Paint3Dは、テキストや画像入力の非テクスチャな3Dメッシュに対して、高解像度で、ライトレスで、多様な2K UVテクスチャマップを生成する。
論文 参考訳(メタデータ) (2023-12-21T15:01:47Z) - Instant3D: Fast Text-to-3D with Sparse-View Generation and Large
Reconstruction Model [68.98311213582949]
テキストプロンプトから高品質で多様な3Dアセットをフィードフォワードで生成する新しい手法であるInstant3Dを提案する。
提案手法は,従来の最適化手法よりも2桁早く,20秒以内に高画質の多種多様な3Dアセットを生成できる。
論文 参考訳(メタデータ) (2023-11-10T18:03:44Z) - Texture Generation on 3D Meshes with Point-UV Diffusion [86.69672057856243]
本稿では, 粗い微細化パイプラインであるPoint-UV拡散モデルとUVマッピングを併用し, 高品質なテクスチャイメージをUV空間で生成する。
本手法は,任意の属のメッシュを処理し,多種多様で,幾何に適合し,高忠実度なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-21T06:20:54Z) - Make-It-3D: High-Fidelity 3D Creation from A Single Image with Diffusion
Prior [36.40582157854088]
本研究では,1枚の画像のみから高忠実度3Dコンテンツを作成する問題について検討する。
我々は、よく訓練された2D拡散モデルからの事前知識を活用し、3D生成のための3D認識監視として機能する。
本手法は,汎用オブジェクトの単一画像から高品質な3D作成を実現するための最初の試みであり,テキスト・ツー・3D作成やテクスチャ編集などの様々な応用を可能にする。
論文 参考訳(メタデータ) (2023-03-24T17:54:22Z) - AUV-Net: Learning Aligned UV Maps for Texture Transfer and Synthesis [78.17671694498185]
AUV-Netは,3次元表面を2次元に整列したUV空間に埋め込むことを学習する。
結果として、テクスチャはオブジェクト間で整列し、画像の生成モデルによって容易に合成できる。
学習されたUVマッピングとアライメントテクスチャ表現は、テクスチャ転送、テクスチャ合成、テクスチャ化された単一ビュー3D再構成など、さまざまなアプリケーションを可能にする。
論文 参考訳(メタデータ) (2022-04-06T21:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。