論文の概要: Revisiting Depth Representations for Feed-Forward 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.05327v1
- Date: Thu, 05 Jun 2025 17:58:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.891225
- Title: Revisiting Depth Representations for Feed-Forward 3D Gaussian Splatting
- Title(参考訳): フィードフォワード3次元ガウススプラッティングにおける深さ表現の再検討
- Authors: Duochao Shi, Weijie Wang, Donny Y. Chen, Zeyu Zhang, Jia-Wang Bian, Bohan Zhuang, Chunhua Shen,
- Abstract要約: 本稿では,事前学習した変圧器によって予測される点マップに基づく新しい正規化損失PM-Lossを紹介する。
改良された深度マップにより,様々なアーキテクチャやシーンのフィードフォワード3DGSを大幅に改善する。
- 参考スコア(独自算出の注目度): 57.43483622778394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth maps are widely used in feed-forward 3D Gaussian Splatting (3DGS) pipelines by unprojecting them into 3D point clouds for novel view synthesis. This approach offers advantages such as efficient training, the use of known camera poses, and accurate geometry estimation. However, depth discontinuities at object boundaries often lead to fragmented or sparse point clouds, degrading rendering quality -- a well-known limitation of depth-based representations. To tackle this issue, we introduce PM-Loss, a novel regularization loss based on a pointmap predicted by a pre-trained transformer. Although the pointmap itself may be less accurate than the depth map, it effectively enforces geometric smoothness, especially around object boundaries. With the improved depth map, our method significantly improves the feed-forward 3DGS across various architectures and scenes, delivering consistently better rendering results. Our project page: https://aim-uofa.github.io/PMLoss
- Abstract(参考訳): 深度マップは、新しいビュー合成のために3Dポイント雲に投影することで、フィードフォワード3Dガウススプラッティング(3DGS)パイプラインで広く使用されている。
このアプローチは、効率的なトレーニング、既知のカメラポーズの使用、正確な幾何推定などの利点を提供する。
しかしながら、オブジェクト境界における深さの不連続性は、しばしば断片化された、あるいはスパースな点の雲を引き起こし、レンダリング品質を劣化させます。
この問題を解決するために,事前学習した変換器によって予測される点マップに基づく新しい正規化損失PM-Lossを導入する。
点写像自体は深さ写像よりも精度が低いかもしれないが、特に物体の境界の周りの幾何学的滑らかさを効果的に強制する。
改良された深度マップにより、様々なアーキテクチャやシーンにわたるフィードフォワード3DGSを大幅に改善し、一貫したレンダリング結果を提供する。
プロジェクトページ:https://aim-uofa.github.io/PMLoss
関連論文リスト
- RDG-GS: Relative Depth Guidance with Gaussian Splatting for Real-time Sparse-View 3D Rendering [13.684624443214599]
本稿では,3次元ガウススプラッティングに基づく相対深度誘導を用いた新しいスパースビュー3DレンダリングフレームワークRDG-GSを提案する。
中心となる革新は、相対的な深度誘導を利用してガウス場を洗練させ、ビュー一貫性のある空間幾何学的表現に向けてそれを操ることである。
Mip-NeRF360, LLFF, DTU, Blenderに関する広範な実験を通じて、RDG-GSは最先端のレンダリング品質と効率を実証している。
論文 参考訳(メタデータ) (2025-01-19T16:22:28Z) - Depth-Regularized Optimization for 3D Gaussian Splatting in Few-Shot
Images [47.14713579719103]
オーバーフィッティングを緩和するための幾何ガイドとして,密集深度マップを導入する。
調整された深度は3Dガウススプラッティングのカラーベース最適化に有効である。
提案手法は,NeRF-LLFFデータセット上で,少ない画像数で検証する。
論文 参考訳(メタデータ) (2023-11-22T13:53:04Z) - SparseFormer: Attention-based Depth Completion Network [2.9434930072968584]
SparseFormerというトランスフォーマーブロックを導入し、3Dランドマークと深い視覚的特徴を融合して深い深度を作り出す。
SparseFormerはグローバルな受容場を持ち、低密度で一様でないランドマークを持つディープコンプリートに特に有効である。
3Dランドマーク間の奥行き外乱の問題に対処するため,スパースランドマーク間の注意を通して外乱をフィルタリングするトレーニング可能なリファインメントモジュールを導入する。
論文 参考訳(メタデータ) (2022-06-09T15:08:24Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。