論文の概要: Sparse-Up: Learnable Sparse Upsampling for 3D Generation with High-Fidelity Textures
- arxiv url: http://arxiv.org/abs/2509.23646v1
- Date: Sun, 28 Sep 2025 05:06:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.34884
- Title: Sparse-Up: Learnable Sparse Upsampling for 3D Generation with High-Fidelity Textures
- Title(参考訳): スパースアップ:高忠実性集合体を用いた3次元生成のための学習可能なスパースアップサンプリング
- Authors: Lu Xiao, Jiale Zhang, Yang Liu, Taicheng Huang, Xin Tian,
- Abstract要約: 本稿では,メモリ効率,高忠実度テクスチャモデリングフレームワークであるSparse-Upを提案する。
スパースボクセルを用いてテクスチャ再構築をガイドし、マルチビューの一貫性を確保する。
幾何整合性を犠牲にすることなく、高分解能ボクセルトレーニング中のメモリ消費量を大幅に削減できる。
- 参考スコア(独自算出の注目度): 14.823320862738504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The creation of high-fidelity 3D assets is often hindered by a 'pixel-level pain point': the loss of high-frequency details. Existing methods often trade off one aspect for another: either sacrificing cross-view consistency, resulting in torn or drifting textures, or remaining trapped by the resolution ceiling of explicit voxels, forfeiting fine texture detail. In this work, we propose Sparse-Up, a memory-efficient, high-fidelity texture modeling framework that effectively preserves high-frequency details. We use sparse voxels to guide texture reconstruction and ensure multi-view consistency, while leveraging surface anchoring and view-domain partitioning to break through resolution constraints. Surface anchoring employs a learnable upsampling strategy to constrain voxels to the mesh surface, eliminating over 70% of redundant voxels present in traditional voxel upsampling. View-domain partitioning introduces an image patch-guided voxel partitioning scheme, supervising and back-propagating gradients only on visible local patches. Through these two strategies, we can significantly reduce memory consumption during high-resolution voxel training without sacrificing geometric consistency, while preserving high-frequency details in textures.
- Abstract(参考訳): 高忠実度3Dアセットの作成は、しばしば「ピクセルレベルの痛み点」、すなわち高周波の詳細が失われることによって妨げられる。
既存の方法では、相互の整合性を犠牲にし、破れたり漂ったりするテクスチャを生じさせるか、明示的なボクセルの解像度の天井に閉じ込められ、細かいテクスチャの詳細を忘れてしまうかのどちらかである。
本研究では,高頻度の詳細を効果的に保存するメモリ効率,高忠実度テクスチャモデリングフレームワークであるSparse-Upを提案する。
我々はスパースボクセルを用いてテクスチャの再構築をガイドし、複数ビューの一貫性を確保するとともに、表面のアンカーとビュー領域のパーティショニングを活用して解像度制約を突破する。
表面アンカーは、メッシュ表面へのボクセルの制約を学習可能なアップサンプリング戦略を採用し、従来のボクセルアップサンプリングに存在する冗長なボクセルの70%以上を除去する。
ビュードメインパーティショニングは、イメージパッチ誘導のボクセルパーティショニングスキームを導入し、視覚化とバックプロパゲーションのグラデーションを、可視なローカルパッチのみに導入する。
これらの2つの戦略により、テクスチャの高頻度の詳細を保ちながら、幾何学的整合性を犠牲にすることなく、高分解能ボクセルトレーニング中のメモリ消費を大幅に削減できる。
関連論文リスト
- Ultra3D: Efficient and High-Fidelity 3D Generation with Part Attention [54.15345846343084]
品質を損なうことなくスパースボクセルモデリングを大幅に高速化する,効率的な3D生成フレームワークであるUltra3Dを提案する。
部分注意(Part Attention)は、意味的に一貫した部分領域内での注意計算を制限する幾何学的な局所的注意機構である。
実験により、Ultra3Dは1024の解像度で高解像度の3D生成をサポートし、視覚的忠実度とユーザの好みの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-23T17:57:16Z) - High-Fidelity and Generalizable Neural Surface Reconstruction with Sparse Feature Volumes [50.83282258807327]
一般化可能なニューラルサーフェス再構成は、シーンごとの最適化なしに、少数の画像から再構成するための魅力的な技術となっている。
本稿では,メモリ効率を最大化し,標準ハードウェア上での高分解能再構成を可能にするスパース表現法を提案する。
論文 参考訳(メタデータ) (2025-07-08T12:50:39Z) - SparseFlex: High-Resolution and Arbitrary-Topology 3D Shape Modeling [79.56581753856452]
SparseFlexは、新しいスパース構造のアイソサーフェス表現で、レンダリング損失から最大10243ドルの解像度で、差別化可能なメッシュ再構築を可能にする。
SparseFlexは、高解像度で差別化可能なメッシュ再構成とレンダリングロスによる生成を可能にすることで、3D形状の表現とモデリングの最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-27T17:46:42Z) - SCube: Instant Large-Scale Scene Reconstruction using VoxSplats [55.383993296042526]
SCubeは画像の粗い集合から大規模3次元シーン(幾何学、外観、意味論)を再構成する新しい手法である。
提案手法は,高解像度のスパース・ボクセル・足場上に支持された3次元ガウスの組である,新しい表現VoxSplatを用いて再構成シーンを符号化する。
論文 参考訳(メタデータ) (2024-10-26T00:52:46Z) - TSAR-MVS: Textureless-aware Segmentation and Correlative Refinement Guided Multi-View Stereo [3.6728185343140685]
テクスチャレス・アンド・コリレーティブ・リファインメント・ガイド付きマルチビューステレオ (TSAR-MVS) 法を提案する。
フィルター,精細化,セグメンテーションによる3次元再構成におけるテクスチャレス領域による課題を効果的に解決する。
ETH3D, Tanks & Temples および Strecha データセットの実験により,提案手法の優れた性能と強みが示された。
論文 参考訳(メタデータ) (2023-08-19T11:40:57Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。