論文の概要: RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions
- arxiv url: http://arxiv.org/abs/2508.03077v1
- Date: Tue, 05 Aug 2025 04:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.77952
- Title: RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions
- Title(参考訳): RobustGS:低品質条件下でのフィードフォワード3次元ガウス平滑化
- Authors: Anran Wu, Long Peng, Xin Di, Xueyuan Dai, Chen Wu, Yang Wang, Xueyang Fu, Yang Cao, Zheng-Jun Zha,
- Abstract要約: 本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
- 参考スコア(独自算出の注目度): 67.48495052903534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feedforward 3D Gaussian Splatting (3DGS) overcomes the limitations of optimization-based 3DGS by enabling fast and high-quality reconstruction without the need for per-scene optimization. However, existing feedforward approaches typically assume that input multi-view images are clean and high-quality. In real-world scenarios, images are often captured under challenging conditions such as noise, low light, or rain, resulting in inaccurate geometry and degraded 3D reconstruction. To address these challenges, we propose a general and efficient multi-view feature enhancement module, RobustGS, which substantially improves the robustness of feedforward 3DGS methods under various adverse imaging conditions, enabling high-quality 3D reconstruction. The RobustGS module can be seamlessly integrated into existing pretrained pipelines in a plug-and-play manner to enhance reconstruction robustness. Specifically, we introduce a novel component, Generalized Degradation Learner, designed to extract generic representations and distributions of multiple degradations from multi-view inputs, thereby enhancing degradation-awareness and improving the overall quality of 3D reconstruction. In addition, we propose a novel semantic-aware state-space model. It first leverages the extracted degradation representations to enhance corrupted inputs in the feature space. Then, it employs a semantic-aware strategy to aggregate semantically similar information across different views, enabling the extraction of fine-grained cross-view correspondences and further improving the quality of 3D representations. Extensive experiments demonstrate that our approach, when integrated into existing methods in a plug-and-play manner, consistently achieves state-of-the-art reconstruction quality across various types of degradations.
- Abstract(参考訳): Feedforward 3D Gaussian Splatting (3DGS)は、シーンごとの最適化を必要とせずに高速で高品質な再構築を可能にすることで、最適化ベースの3DGSの限界を克服する。
しかし、既存のフィードフォワードアプローチでは、入力されたマルチビュー画像はクリーンで高品質であると仮定するのが一般的である。
現実のシナリオでは、画像はしばしばノイズ、低光、雨のような困難な条件下で撮影され、不正確な幾何学と劣化した3D再構成をもたらす。
これらの課題に対処するため, 各種画像条件下でのフィードフォワード3DGS法の堅牢性を大幅に向上し, 高品質な3D再構成を実現する汎用かつ効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
RobustGSモジュールは、リコンストラクションの堅牢性を高めるために、プラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合することができる。
具体的には,多視点入力から複数の劣化の総称表現と分布を抽出し,劣化認識性の向上と3D再構成の全体的な品質向上を図った新しいコンポーネントである一般化分解学習システムを提案する。
さらに,新しい意味認識状態空間モデルを提案する。
まず抽出した劣化表現を利用して特徴空間の劣化した入力を強化する。
そして、セマンティック・アウェア・ストラテジーを用いて、異なるビューにまたがって意味的に類似した情報を集約し、微粒なクロスビュー対応の抽出を可能にし、3D表現の質をさらに向上させる。
大規模な実験により,既存手法にプラグイン・アンド・プレイ方式で組み込んだアプローチは,様々な種類の劣化に対して常に最先端の復元品質を達成できることが実証された。
関連論文リスト
- iLRM: An Iterative Large 3D Reconstruction Model [21.98670485640184]
本稿では,反復的改良機構を用いて3次元ガウス表現を生成する反復的大規模3次元再構成モデル(iLRM)を提案する。
RE10KやDL3DVといった広く使われているデータセットの実験結果から、iLRMは復元品質と速度の両方で既存の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2025-07-31T06:33:07Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - StreamGS: Online Generalizable Gaussian Splatting Reconstruction for Unposed Image Streams [32.91936079359693]
本稿では,非ポーズ画像ストリームのための3DGS再構成手法であるStreamGSを提案する。
StreamGSは、画像ストリームを3Dガウスストリームに変換する。
多様なデータセットの実験では、StreamGSは最適化ベースのアプローチと同等の品質を実現しているが、150倍高速であることが示された。
論文 参考訳(メタデータ) (2025-03-08T14:35:39Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - Towards Degradation-Robust Reconstruction in Generalizable NeRF [58.33351079982745]
GNeRF(Generalizable Radiance Field)は,シーンごとの最適化を回避する手段として有効であることが証明されている。
GNeRFの強靭性は, ソース画像に現れる様々な種類の劣化に対して限定的に研究されている。
論文 参考訳(メタデータ) (2024-11-18T16:13:47Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - SplatFields: Neural Gaussian Splats for Sparse 3D and 4D Reconstruction [24.33543853742041]
3Dガウススティング(3DGS)は実用的でスケーラブルな再構築手法として登場した。
暗黙的ニューラルネットワークの出力としてモデル化することで,スプレート特徴を効果的に正規化する最適化手法を提案する。
当社のアプローチは,異なるセットアップやシーンの複雑さをまたいだ広範なテストによって実証されるような,静的および動的ケースを効果的に処理する。
論文 参考訳(メタデータ) (2024-09-17T14:04:20Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。