論文の概要: InsTex: Indoor Scenes Stylized Texture Synthesis
- arxiv url: http://arxiv.org/abs/2501.13969v1
- Date: Wed, 22 Jan 2025 08:37:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:26.619931
- Title: InsTex: Indoor Scenes Stylized Texture Synthesis
- Title(参考訳): InsTex: 室内シーンのスティル化テクスチャ合成
- Authors: Yunfan Zhang, Zhiwei Xiong, Zhiqi Shen, Guosheng Lin, Hao Wang, Nicolas Vun,
- Abstract要約: 拡張現実(ARVR)アプリケーションでは、高品質なテクスチャが3Dシーンに不可欠である。
現在の手法は、長い処理時間と視覚的アーティファクトに悩まされている。
3Dシーンのための高品質なテクスチャを生成するために設計された2段階アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 81.12010726769768
- License:
- Abstract: Generating high-quality textures for 3D scenes is crucial for applications in interior design, gaming, and augmented/virtual reality (AR/VR). Although recent advancements in 3D generative models have enhanced content creation, significant challenges remain in achieving broad generalization and maintaining style consistency across multiple viewpoints. Current methods, such as 2D diffusion models adapted for 3D texturing, suffer from lengthy processing times and visual artifacts, while approaches driven by 3D data often fail to generalize effectively. To overcome these challenges, we introduce InsTex, a two-stage architecture designed to generate high-quality, style-consistent textures for 3D indoor scenes. InsTex utilizes depth-to-image diffusion priors in a coarse-to-fine pipeline, first generating multi-view images with a pre-trained 2D diffusion model and subsequently refining the textures for consistency. Our method supports both textual and visual prompts, achieving state-of-the-art results in visual quality and quantitative metrics, and demonstrates its effectiveness across various 3D texturing applications.
- Abstract(参考訳): 3Dシーンのための高品質なテクスチャの生成は、インテリアデザイン、ゲーム、拡張現実/バーチャルリアリティ(AR/VR)の応用に不可欠である。
近年の3D生成モデルの発展によりコンテンツ生成が促進されているが、多視点にわたって広範な一般化とスタイル整合性を維持する上で大きな課題が残っている。
3次元テクスチャに適応した2次元拡散モデルのような現在の手法は、長い処理時間と視覚的アーティファクトに悩まされ、一方、3次元データによって駆動されるアプローチは、しばしば効果的に一般化できない。
これらの課題を克服するために,室内3Dシーンのための高品質でスタイルに整合したテクスチャを生成するために設計された2段階アーキテクチャであるInsTexを紹介した。
InsTexは、粗いパイプラインの奥行き拡散先を利用して、まず事前訓練された2次元拡散モデルでマルチビュー画像を生成し、その後、整合性のためにテクスチャを精製する。
本手法は, テキストと視覚の両方のプロンプトをサポートし, 視覚的品質, 定量的な測定結果を実現し, 様々な3次元テクスチャアプリケーションにおいてその有効性を示す。
関連論文リスト
- Tactile DreamFusion: Exploiting Tactile Sensing for 3D Generation [39.702921832009466]
本稿では,タッチを付加的なモダリティとして組み込むことにより,生成した3次元資産の幾何学的詳細性を向上する手法を提案する。
2次元拡散モデルにより導かれる視覚的および触覚的テクスチャを合成する軽量な3次元テクスチャ場を設計する。
我々は,3次元生成タスクの幾何学的詳細性を高めるために,高分解能触覚を初めて活用する。
論文 参考訳(メタデータ) (2024-12-09T18:59:45Z) - HoloDreamer: Holistic 3D Panoramic World Generation from Text Descriptions [31.342899807980654]
3Dシーン生成は、仮想現実、ゲーム、映画産業など、さまざまな領域で高い需要がある。
フル3Dシーンの全体的初期化として,最初に高精細パノラマを生成するフレームワークであるHoloDreamerを紹介する。
そして、3Dガウススティング(3D-GS)を活用して3Dシーンを迅速に再構築し、ビュー一貫性と完全に囲まれた3Dシーンの作成を容易にする。
論文 参考訳(メタデータ) (2024-07-21T14:52:51Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - TexFusion: Synthesizing 3D Textures with Text-Guided Image Diffusion
Models [77.85129451435704]
大規模誘導画像拡散モデルを用いて3次元テクスチャを合成する手法を提案する。
具体的には、潜時拡散モデルを利用し、セット・デノナイジング・モデルと集合・デノナイジング・テキスト・マップを適用する。
論文 参考訳(メタデータ) (2023-10-20T19:15:29Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - Make-It-3D: High-Fidelity 3D Creation from A Single Image with Diffusion
Prior [36.40582157854088]
本研究では,1枚の画像のみから高忠実度3Dコンテンツを作成する問題について検討する。
我々は、よく訓練された2D拡散モデルからの事前知識を活用し、3D生成のための3D認識監視として機能する。
本手法は,汎用オブジェクトの単一画像から高品質な3D作成を実現するための最初の試みであり,テキスト・ツー・3D作成やテクスチャ編集などの様々な応用を可能にする。
論文 参考訳(メタデータ) (2023-03-24T17:54:22Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。