論文の概要: UltraShape 1.0: High-Fidelity 3D Shape Generation via Scalable Geometric Refinement
- arxiv url: http://arxiv.org/abs/2512.21185v2
- Date: Thu, 25 Dec 2025 15:59:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 13:23:29.837632
- Title: UltraShape 1.0: High-Fidelity 3D Shape Generation via Scalable Geometric Refinement
- Title(参考訳): UltraShape 1.0: スケーラブルな幾何学的リファインメントによる高忠実度3次元形状生成
- Authors: Tanghui Jia, Dongyu Yan, Dehao Hao, Yang Li, Kaiyi Zhang, Xianyi He, Lanjiong Li, Yuhan Wang, Jinnan Chen, Lutao Jiang, Qishen Yin, Long Quan, Ying-Cong Chen, Li Yuan,
- Abstract要約: 我々は,高忠実度3次元幾何生成のためのスケーラブルな3次元拡散フレームワークであるUltraShape 1.0を紹介する。
提案手法では, 粗大な大域構造をまず合成し, 精細で高品質な幾何を生成する。
我々のモデルは、利用可能な3Dデータセットにのみトレーニングされており、限られたトレーニングリソースにもかかわらず、強力な幾何学的品質を達成することができる。
- 参考スコア(独自算出の注目度): 48.288246901085614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this report, we introduce UltraShape 1.0, a scalable 3D diffusion framework for high-fidelity 3D geometry generation. The proposed approach adopts a two-stage generation pipeline: a coarse global structure is first synthesized and then refined to produce detailed, high-quality geometry. To support reliable 3D generation, we develop a comprehensive data processing pipeline that includes a novel watertight processing method and high-quality data filtering. This pipeline improves the geometric quality of publicly available 3D datasets by removing low-quality samples, filling holes, and thickening thin structures, while preserving fine-grained geometric details. To enable fine-grained geometry refinement, we decouple spatial localization from geometric detail synthesis in the diffusion process. We achieve this by performing voxel-based refinement at fixed spatial locations, where voxel queries derived from coarse geometry provide explicit positional anchors encoded via RoPE, allowing the diffusion model to focus on synthesizing local geometric details within a reduced, structured solution space. Our model is trained exclusively on publicly available 3D datasets, achieving strong geometric quality despite limited training resources. Extensive evaluations demonstrate that UltraShape 1.0 performs competitively with existing open-source methods in both data processing quality and geometry generation. All code and trained models will be released to support future research.
- Abstract(参考訳): 本稿では,高忠実度3次元幾何生成のためのスケーラブルな3次元拡散フレームワークであるUltraShape 1.0を紹介する。
提案手法では, 粗大な大域構造をまず合成し, 精細で高品質な幾何を生成する。
信頼性の高い3次元データ生成を支援するため,新しい水密処理法と高品質なデータフィルタリングを含む包括的データ処理パイプラインを開発した。
このパイプラインは、低品質のサンプルを除去し、穴を埋め、細い構造物を厚くすることで、利用可能な3Dデータセットの幾何学的品質を向上させる。
微細な幾何学的精細化を実現するため,拡散過程における幾何学的詳細合成から空間的局所化を分離する。
そこで、粗い幾何学から導かれたボクセルクエリは、RoPEで符号化された明確な位置アンカーを提供し、拡散モデルは、縮小された構造化された解空間内の局所幾何学的詳細を合成することに集中することができる。
我々のモデルは、利用可能な3Dデータセットにのみトレーニングされており、限られたトレーニングリソースにもかかわらず、強力な幾何学的品質を達成することができる。
UltraShape 1.0は,データ処理の品質と幾何生成の両方において,既存のオープンソース手法と競合して動作することを示す。
すべてのコードとトレーニングされたモデルは、将来の研究をサポートするためにリリースされます。
関連論文リスト
- GeoWorld: Unlocking the Potential of Geometry Models to Facilitate High-Fidelity 3D Scene Generation [68.02988074681427]
画像から3Dのシーン生成にビデオモデルを利用する以前の研究は、幾何学的歪みやぼやけた内容に悩まされる傾向にある。
本稿では,幾何学モデルの可能性を解き放つことにより,画像から3次元のシーン生成のパイプラインを再構築する。
我々のGeoWorldは、1つの画像と所定のカメラ軌道から高忠実度3Dシーンを生成することができ、定性的かつ定量的に先行手法より優れている。
論文 参考訳(メタデータ) (2025-11-28T13:55:45Z) - Step1X-3D: Towards High-Fidelity and Controllable Generation of Textured 3D Assets [90.99212668875971]
Step1X-3Dは、データの不足、アルゴリズムの制限、エコシステムの断片化といった課題に対処するオープンフレームワークである。
拡散型テクスチャ合成モジュールとハイブリッドVAE-DiTジオメトリジェネレータを組み合わせた2段階の3Dネイティブアーキテクチャを提案する。
ベンチマークの結果は、既存のオープンソースメソッドを超える最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-05-12T16:56:30Z) - DetailGen3D: Generative 3D Geometry Enhancement via Data-Dependent Flow [44.72037991063735]
DetailGen3Dは、生成された3D形状を強化するために特別に設計されたジェネレーティブなアプローチである。
我々の重要な洞察は、潜在空間におけるデータ依存フローを通して、粗大から細小への変換を直接モデル化することである。
改質時に正確な空間対応を確保するためのトークンマッチング戦略を導入する。
論文 参考訳(メタデータ) (2024-11-25T17:08:17Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - Neural Convolutional Surfaces [59.172308741945336]
この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このアプローチは, 最先端技術よりも優れたニューラル形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
論文 参考訳(メタデータ) (2022-04-05T15:40:11Z) - DEF: Deep Estimation of Sharp Geometric Features in 3D Shapes [43.853000396885626]
サンプル3次元形状のシャープな幾何学的特徴を予測するための学習ベースフレームワークを提案する。
個々のパッチの結果を融合させることで、既存のデータ駆動方式では処理できない大きな3Dモデルを処理できる。
論文 参考訳(メタデータ) (2020-11-30T18:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。