論文の概要: Elevating 3D Models: High-Quality Texture and Geometry Refinement from a Low-Quality Model
- arxiv url: http://arxiv.org/abs/2507.11465v1
- Date: Tue, 15 Jul 2025 16:36:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.188271
- Title: Elevating 3D Models: High-Quality Texture and Geometry Refinement from a Low-Quality Model
- Title(参考訳): 高度3次元モデル:低品質モデルからの高品質テクスチャと幾何微細化
- Authors: Nuri Ryu, Jiyun Won, Jooeun Son, Minsu Gong, Joo-Haeng Lee, Sunghyun Cho,
- Abstract要約: 高品質な3Dアセットはコンピュータグラフィックスや3Dビジョンの様々なアプリケーションに欠かせないが、大きな買収コストのために不足している。
アクセスしやすい低品質の3Dアセットを高品質に変換する新しいフレームワークであるElevate3Dを紹介します。
- 参考スコア(独自算出の注目度): 12.111037949283668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality 3D assets are essential for various applications in computer graphics and 3D vision but remain scarce due to significant acquisition costs. To address this shortage, we introduce Elevate3D, a novel framework that transforms readily accessible low-quality 3D assets into higher quality. At the core of Elevate3D is HFS-SDEdit, a specialized texture enhancement method that significantly improves texture quality while preserving the appearance and geometry while fixing its degradations. Furthermore, Elevate3D operates in a view-by-view manner, alternating between texture and geometry refinement. Unlike previous methods that have largely overlooked geometry refinement, our framework leverages geometric cues from images refined with HFS-SDEdit by employing state-of-the-art monocular geometry predictors. This approach ensures detailed and accurate geometry that aligns seamlessly with the enhanced texture. Elevate3D outperforms recent competitors by achieving state-of-the-art quality in 3D model refinement, effectively addressing the scarcity of high-quality open-source 3D assets.
- Abstract(参考訳): 高品質な3Dアセットはコンピュータグラフィックスや3Dビジョンの様々なアプリケーションに欠かせないが、大きな買収コストのために不足している。
この不足に対処するため,我々は,アクセスしやすい低品質な3Dアセットを高品質に変換する新しいフレームワークであるElevate3Dを紹介した。
Elevate3DのコアとなるHFS-SDEditは、その劣化を修正しながら外観や形状を保ちながらテクスチャ品質を著しく改善する特殊なテクスチャ拡張手法である。
さらに、Elevate3Dは、テクスチャと幾何学的洗練の交互に、ビュー・バイ・ビューで機能する。
従来見過ごされてきた幾何補正手法とは異なり,我々のフレームワークは,最先端の単色幾何予測器を用いて,HFS-SDEditで精細化した画像からの幾何的手がかりを利用する。
このアプローチは、拡張されたテクスチャとシームレスに整合する、精密で正確な幾何学を保証する。
Elevate3Dは、3Dモデルの洗練において最先端の品質を達成し、高品質なオープンソース3D資産の不足に効果的に対処することで、最近のライバルより優れている。
関連論文リスト
- Geometry-Aware Preference Learning for 3D Texture Generation [8.953379216683732]
本稿では,3次元生成パイプライン全体を通じて人間の嗜好をバックプロパガンダする,エンドツーエンドで微分可能な選好学習フレームワークを提案する。
提案する4つの新しい幾何認識報酬関数を用いて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2025-06-23T06:24:12Z) - Constructing a 3D Town from a Single Image [23.231661811526955]
3DTownは、単一のトップダウンビューからリアルで一貫性のある3Dシーンを合成するために設計された、トレーニング不要のフレームワークである。
入力画像を重なり合う領域に分解し、事前訓練された3Dオブジェクトジェネレータを用いてそれぞれを生成する。
以上の結果から,1枚の画像から高品質な3Dタウンジェネレーションが実現可能であることを示す。
論文 参考訳(メタデータ) (2025-05-21T17:10:47Z) - GraphicsDreamer: Image to 3D Generation with Physical Consistency [32.26851174969898]
単一画像から高機能な3Dメッシュを作成する方法であるGraphicsDreamerを紹介する。
幾何融合の段階では、生成した3Dオブジェクトが信頼性の高いテクスチャの詳細を持つことを保証するため、PBRの制約を継続する。
提案手法はトポロジ最適化と高速なUVアンラッピング機能を備えており,3D画像をグラフィクスエンジンにシームレスにインポートすることができる。
論文 参考訳(メタデータ) (2024-12-18T10:01:27Z) - Edify 3D: Scalable High-Quality 3D Asset Generation [53.86838858460809]
Edify 3Dは高品質な3Dアセット生成のために設計された高度なソリューションである。
提案手法は,2分間で詳細な形状,清潔な形状のトポロジ,高分解能なテクスチャ,材料で高品質な3Dアセットを生成できる。
論文 参考訳(メタデータ) (2024-11-11T17:07:43Z) - DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - 3DTopia-XL: Scaling High-quality 3D Asset Generation via Primitive Diffusion [86.25111098482537]
3DTopia-XLは,既存の手法の限界を克服するために設計された,スケーラブルなネイティブな3D生成モデルである。
3DTopia-XLは、新しいプリミティブベースの3D表現であるPrimXを利用して、詳細な形状、アルベド、マテリアルフィールドをコンパクトなテンソル形式にエンコードする。
その上で, 1) 原始的パッチ圧縮, 2) および潜在的原始的拡散を含む拡散変換器(DiT)に基づく生成フレームワークを提案する。
我々は,3DTopia-XLが既存の手法よりも高い性能を示すことを示すために,広範囲な定性的,定量的な実験を行った。
論文 参考訳(メタデータ) (2024-09-19T17:59:06Z) - CraftsMan3D: High-fidelity Mesh Generation with 3D Native Generation and Interactive Geometry Refiner [34.105535682680724]
CraftsManは、非常に多様な形状、通常のメッシュトポロジ、詳細な表面を持つ高忠実な3Dジオメトリを生成することができる。
本手法は,従来の方法に比べて高品質な3Dアセットの製作に有効である。
論文 参考訳(メタデータ) (2024-05-23T18:30:12Z) - 3DTextureTransformer: Geometry Aware Texture Generation for Arbitrary
Mesh Topology [1.4349415652822481]
3Dメッシュと実世界の2D画像の集合が与えられた新しい3Dメッシュのテクスチャを生成することを学ぶことは、3Dシミュレーション、拡張現実、仮想現実、ゲーム、アーキテクチャ、デザインなど、さまざまな領域のアプリケーションにとって重要な問題である。
既存のソリューションは、高品質なテクスチャを生成したり、元の高解像度の入力メッシュトポロジを正規のグリッドに変形させたりすることで、この生成を容易にするが、元のメッシュトポロジを失う。
本稿では,3DTextureTransformerという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T05:01:07Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。