論文の概要: DenoiseSplat: Feed-Forward Gaussian Splatting for Noisy 3D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2603.09291v1
- Date: Tue, 10 Mar 2026 07:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.121846
- Title: DenoiseSplat: Feed-Forward Gaussian Splatting for Noisy 3D Scene Reconstruction
- Title(参考訳): DenoiseSplat: ノイズの多い3次元シーン再構成のためのフィードフォワードガウススプラッティング
- Authors: Fuzhen Jiang, Zhuoran Li, Yinlin Zhang,
- Abstract要約: ノイズの多い多視点画像に対するフィードフォワード3次元ガウススプラッティング法であるDenoiseSplatを提案する。
ガウシアン,ポアソン,スペックル,ソルト・アンド・ペッパーノイズを注入することにより,RE10K上で大規模でシーン一貫性のあるノイズをクリーンに評価する。
ライトウェイトなMVSplatスタイルのバックボーンで、クリーンな2Dレンダリングのみを監督として、そして3Dの地上真実なしで、エンドツーエンドでトレーニングします。
- 参考スコア(独自算出の注目度): 6.257560917160816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D scene reconstruction and novel-view synthesis are fundamental for VR, robotics, and content creation. However, most NeRF and 3D Gaussian Splatting pipelines assume clean inputs and degrade under real noise and artifacts. We therefore propose DenoiseSplat, a feed-forward 3D Gaussian splatting method for noisy multi-view images. We build a large-scale, scene-consistent noisy--clean benchmark on RE10K by injecting Gaussian, Poisson, speckle, and salt-and-pepper noise with controlled intensities. With a lightweight MVSplat-style feed-forward backbone, we train end-to-end using only clean 2D renderings as supervision and no 3D ground truth. On noisy RE10K, DenoiseSplat outperforms vanilla MVSplat and a strong two-stage baseline (IDF + MVSplat) in PSNR/SSIM and LPIPS across noise types and levels.
- Abstract(参考訳): 3Dシーンの再構築とノベルビューの合成は、VR、ロボティクス、コンテンツ制作に不可欠である。
しかし、ほとんどのNeRFと3Dガウススティングパイプラインはクリーンな入力を仮定し、実際のノイズやアーティファクトの下で分解する。
そこで我々は,多視点画像のフィードフォワード3次元ガウス分割法であるDenoiseSplatを提案する。
ガウシアン,ポアソン,スペックル,ソルト・アンド・ペッパーのノイズを制御強度で注入することにより,RE10K上で大規模かつシーン一貫性のノイズをクリーンに評価する。
ライトウェイトなMVSplatスタイルのフィードフォワードバックボーンで、クリーンな2Dレンダリングのみを監督として、そして3Dの地上真実を使わないように、エンドツーエンドでトレーニングします。
ノイズの多いRE10Kでは、DenoiseSplat はバニラ MVSplat と強い2段ベースライン(IDF + MVSplat)をPSNR/SSIM で、LPIPS はノイズタイプとレベルで上回っている。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Occam's LGS: An Efficient Approach for Language Gaussian Splatting [57.00354758206751]
言語3Dガウススプラッティングのための複雑なパイプラインは、単純に不要であることを示す。
我々は,オッカムのカミソリを手作業に適用し,高効率な重み付き多視点特徴集約技術を実現する。
論文 参考訳(メタデータ) (2024-12-02T18:50:37Z) - DeSplat: Decomposed Gaussian Splatting for Distractor-Free Rendering [18.72451738333928]
DeSplatは、ガウスプリミティブのボリュームレンダリングに基づいて、気晴らしと静的なシーン要素を純粋に分離する新しい方法である。
本稿では,3つのベンチマークデータセットに対してDeSplatの有効性を示す。
論文 参考訳(メタデータ) (2024-11-29T15:00:38Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - Few-shot Novel View Synthesis using Depth Aware 3D Gaussian Splatting [0.0]
3次元ガウススプラッティングは、新しいビュー合成における神経放射場法を超越している。
多数のインプットビューを備えた高品質なレンダリングを生成するが、ほんの数ビューしか利用できない場合、パフォーマンスは大幅に低下する。
数発の新規ビュー合成のための奥行き認識型ガウススプラッティング法を提案する。
論文 参考訳(メタデータ) (2024-10-14T20:42:30Z) - From Chaos to Clarity: 3DGS in the Dark [28.232432162734437]
未処理の生画像のノイズは、3次元シーン表現の精度を損なう。
3D Gaussian Splatting (3DGS)はこのノイズに特に影響を受けやすい。
ノイズの多い生画像からHDR 3DGSを再構成するための,新しい自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T15:00:16Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - A Refined 3D Gaussian Representation for High-Quality Dynamic Scene Reconstruction [2.022451212187598]
近年,Neural Radiance Fields (NeRF) は3次元の3次元再構成に革命をもたらした。
3D Gaussian Splatting (3D-GS)は、ニューラルネットワークの暗黙の表現から離れ、代わりに、シーンを直接ガウス型の分布を持つ点雲として表現している。
本稿では,高品質な動的シーン再構成のための高精細な3次元ガウス表現を提案する。
実験の結果,提案手法は3D-GSによるメモリ使用量を大幅に削減しつつ,レンダリング品質と高速化の既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-28T07:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。