論文の概要: S2D: Sparse to Dense Lifting for 3D Reconstruction with Minimal Inputs
- arxiv url: http://arxiv.org/abs/2603.10893v1
- Date: Wed, 11 Mar 2026 15:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.035249
- Title: S2D: Sparse to Dense Lifting for 3D Reconstruction with Minimal Inputs
- Title(参考訳): S2D: 最小入力による3次元再構成のためのスパース・デンス・リフティング
- Authors: Yuzhou Ji, Qijian Tian, He Zhu, Xiaoqi Jiang, Guangzhi Cao, Lizhuang Ma, Yuan Xie, Xin Tan,
- Abstract要約: Sparse to Dense lifting (S2D)は、2つの表現をブリッジし、最小限の入力で高品質な3DGS再構成を実現するパイプラインである。
実験により、S2Dは、異なる入力空間下で、新しいビューガイダンスと第1階層のスパースビュー再構成品質を生成する際に、最良の整合性を達成することが示された。
- 参考スコア(独自算出の注目度): 53.597239706600455
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Explicit 3D representations have already become an essential medium for 3D simulation and understanding. However, the most commonly used point cloud and 3D Gaussian Splatting (3DGS) each suffer from non-photorealistic rendering and significant degradation under sparse inputs. In this paper, we introduce Sparse to Dense lifting (S2D), a novel pipeline that bridges the two representations and achieves high-quality 3DGS reconstruction with minimal inputs. Specifically, the S2D lifting is two-fold. We first present an efficient one-step diffusion model that lifts sparse point cloud for high-fidelity image artifact fixing. Meanwhile, to reconstruct 3D consistent scenes, we also design a corresponding reconstruction strategy with random sample drop and weighted gradient for robust model fitting from sparse input views to dense novel views. Extensive experiments show that S2D achieves the best consistency in generating novel view guidance and first-tier sparse view reconstruction quality under different input sparsity. By reconstructing stable scenes with the least possible captures among existing methods, S2D enables minimal input requirements for 3DGS applications.
- Abstract(参考訳): 明示的な3D表現は、すでに3Dシミュレーションと理解にとって欠かせない媒体となっている。
しかし、最もよく使われる点雲と3Dガウススプラッティング(3DGS)は、それぞれ非フォトリアリスティックなレンダリングとスパース入力による顕著な劣化に悩まされている。
本稿では、2つの表現をブリッジし、最小限の入力で高品質な3DGS再構成を実現する新しいパイプラインであるSparse to Dense lifting (S2D)を紹介する。
具体的には、S2Dリフトは2倍である。
まず,高忠実度画像アーティファクト修正のためにスパース点雲を昇降させる効率的なワンステップ拡散モデルを提案する。
一方、3次元一貫したシーンを再構築するために、スパースインプットビューから密度の高い新規ビューへのロバストモデル適合のためのランダムサンプルドロップと重み付き勾配による対応する再構成戦略を設計する。
広汎な実験により、S2Dは、異なる入力空間下で、新しいビューガイダンスと第1階層のスパースビュー再構成品質を生成する上で、最高の整合性を達成することが示された。
S2Dは3DGSアプリケーションに対して最小限の入力要求を実現する。
関連論文リスト
- Sparse2DGS: Sparse-View Surface Reconstruction using 2D Gaussian Splatting with Dense Point Cloud [9.784526657786342]
本稿では,Sparse2DGSと呼ばれる新しい3次元再構成手法を提案する。
Sparse2DGSはステレオ画像の基本モデルであるDUSt3RとCOLMAP MVSを採用し、高精度で密度の高い3D点雲を生成する。
Sparse2DGSは3つの画像を用いて物体の3次元形状を正確に再構成できることを示す。
論文 参考訳(メタデータ) (2025-05-26T11:38:26Z) - 3D$^2$-Actor: Learning Pose-Conditioned 3D-Aware Denoiser for Realistic Gaussian Avatar Modeling [37.11454674584874]
ポーズ条件付き3D対応ヒューマンモデリングパイプラインである3D$2$-Actorを導入する。
実験により、3D$2$-アクターは高忠実度アバターモデリングにおいて優れ、新しいポーズに頑健に一般化することを示した。
論文 参考訳(メタデータ) (2024-12-16T09:37:52Z) - DSplats: 3D Generation by Denoising Splats-Based Multiview Diffusion Models [67.50989119438508]
本稿では,ガウスをベースとしたレコンストラクタを用いて,リアルな3Dアセットを生成することで,マルチビュー画像を直接認識するDSplatを紹介した。
実験の結果,DSplatsは高品質で空間的に一貫した出力を生成できるだけでなく,単一画像から3次元再構成への新たな標準も設定できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T07:32:17Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。