論文の概要: 3D Gaussian Flats: Hybrid 2D/3D Photometric Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2509.16423v1
- Date: Fri, 19 Sep 2025 21:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.784286
- Title: 3D Gaussian Flats: Hybrid 2D/3D Photometric Scene Reconstruction
- Title(参考訳): 3Dガウスフラット:ハイブリッド2D/3D撮影シーン再構成
- Authors: Maria Taktasheva, Lily Goli, Alessandro Fiorini, Zhen, Li, Daniel Rebain, Andrea Tagliasacchi,
- Abstract要約: 本研究では,平面平面(2D)ガウスと自由形式(3D)ガウスを連立最適化するハイブリッド2D/3D表現を提案する。
我々のエンドツーエンドアプローチは、平面領域を動的に検出・洗練し、視覚的忠実度と幾何学的精度の両方を改善する。
ScanNet++とScanNetv2の最先端の深さ推定を実現し、特定のカメラモデルに過度に適合することなくメッシュ抽出に優れる。
- 参考スコア(独自算出の注目度): 59.24684110692314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in radiance fields and novel view synthesis enable creation of realistic digital twins from photographs. However, current methods struggle with flat, texture-less surfaces, creating uneven and semi-transparent reconstructions, due to an ill-conditioned photometric reconstruction objective. Surface reconstruction methods solve this issue but sacrifice visual quality. We propose a novel hybrid 2D/3D representation that jointly optimizes constrained planar (2D) Gaussians for modeling flat surfaces and freeform (3D) Gaussians for the rest of the scene. Our end-to-end approach dynamically detects and refines planar regions, improving both visual fidelity and geometric accuracy. It achieves state-of-the-art depth estimation on ScanNet++ and ScanNetv2, and excels at mesh extraction without overfitting to a specific camera model, showing its effectiveness in producing high-quality reconstruction of indoor scenes.
- Abstract(参考訳): 近年の放射場と新しいビュー合成の進歩により、写真からリアルなデジタル双生児を作れるようになった。
しかし、現在の手法は、平らで、テクスチャのない表面で苦労し、不均一で半透明な再構成を生み出している。
表面再構成法はこの問題を解くが、視覚的品質を犠牲にする。
本研究では,平面平面(2D)ガウスと自由形式(3D)ガウスを連立最適化するハイブリッド2D/3D表現を提案する。
我々のエンドツーエンドアプローチは、平面領域を動的に検出・洗練し、視覚的忠実度と幾何学的精度の両方を改善する。
ScanNet++とScanNetv2の最先端の深さ推定を実現し、特定のカメラモデルに過度に適合することなくメッシュ抽出を最適化し、室内シーンの高品質な再構築に有効であることを示す。
関連論文リスト
- RI3D: Few-Shot Gaussian Splatting With Repair and Inpainting Diffusion Priors [13.883695200241524]
RI3Dは拡散モデルのパワーを生かした新しい手法であり、入力画像のスパースセットが与えられた場合、高品質な新規ビューを再構築する。
我々の重要な貢献は、ビュー合成プロセスを可視領域を再構築し、行方不明領域を幻覚させる2つのタスクに分けることである。
我々は、様々な場面において最先端のアプローチよりも優れた、目に見える領域と欠落する領域の両方で、詳細なテクスチャで結果を生成する。
論文 参考訳(メタデータ) (2025-03-13T20:16:58Z) - DynaSurfGS: Dynamic Surface Reconstruction with Planar-based Gaussian Splatting [13.762831851385227]
本研究では,動的シナリオのフォトリアリスティックレンダリングと高忠実な表面再構成を実現するためにDynaSurfGSを提案する。
このフレームワークはまず、4Dニューラルボクセルのガウスの特徴をプラナーベースのガウススプラッティングに組み込んで、表面の正確な再構築を容易にする。
また、ARAP(as-rigid-as-possible)制約を組み込んで、時間ステップ間の3Dガウシアン地区の局所的な剛性を維持する。
論文 参考訳(メタデータ) (2024-08-26T01:36:46Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。