論文の概要: From Restoration to Reconstruction: Rethinking 3D Gaussian Splatting for Underwater Scenes
- arxiv url: http://arxiv.org/abs/2509.17789v1
- Date: Mon, 22 Sep 2025 13:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.42217
- Title: From Restoration to Reconstruction: Rethinking 3D Gaussian Splatting for Underwater Scenes
- Title(参考訳): 修復から復元へ:水中の3Dガウススプラッティングを再考する
- Authors: Guoxi Huang, Haoran Wang, Zipeng Qi, Wenjun Lu, David Bull, Nantheera Anantrasirichai,
- Abstract要約: 水中画像復元(UIR)を3次元ガウススプラッティング(DGS)でブリッジする統合フレームワークである textbfR-Splatting を提案する。
提案手法は,多様なUIRモデルによって生成された複数の拡張ビューを1つの再構築パイプラインに統合する。
Seathru-NeRFと新しいBlueCoral3Dデータセットの実験により、R-Splattingはレンダリング品質と幾何学的精度の両方において、強いベースラインを上回ります。
- 参考スコア(独自算出の注目度): 13.730810237133822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater image degradation poses significant challenges for 3D reconstruction, where simplified physical models often fail in complex scenes. We propose \textbf{R-Splatting}, a unified framework that bridges underwater image restoration (UIR) with 3D Gaussian Splatting (3DGS) to improve both rendering quality and geometric fidelity. Our method integrates multiple enhanced views produced by diverse UIR models into a single reconstruction pipeline. During inference, a lightweight illumination generator samples latent codes to support diverse yet coherent renderings, while a contrastive loss ensures disentangled and stable illumination representations. Furthermore, we propose \textit{Uncertainty-Aware Opacity Optimization (UAOO)}, which models opacity as a stochastic function to regularize training. This suppresses abrupt gradient responses triggered by illumination variation and mitigates overfitting to noisy or view-specific artifacts. Experiments on Seathru-NeRF and our new BlueCoral3D dataset demonstrate that R-Splatting outperforms strong baselines in both rendering quality and geometric accuracy.
- Abstract(参考訳): 水中画像の劣化は、複雑な場面で単純化された物理モデルが失敗する3次元再構成において重要な課題となる。
本稿では,3次元ガウススティング(3DGS)で水中画像復元(UIR)をブリッジし,レンダリング品質と幾何学的忠実度を両立させる統合フレームワークである‘textbf{R-Splatting} を提案する。
提案手法は,多様なUIRモデルによって生成された複数の拡張ビューを1つの再構築パイプラインに統合する。
推論中、軽量照明ジェネレータは、多種多様なコヒーレントなレンダリングをサポートするために潜時符号をサンプリングする。
さらに,不透明度を確率関数としてモデル化し,トレーニングを正規化する「textit{Uncertainty-Aware Opacity Optimization (UAOO)」を提案する。
これにより、照明の変動によって引き起こされる急激な勾配反応を抑え、ノイズやビュー固有のアーティファクトへの過度な適合を緩和する。
Seathru-NeRFと新しいBlueCoral3Dデータセットの実験により、R-Splattingはレンダリング品質と幾何学的精度の両方において、強いベースラインを上回ります。
関連論文リスト
- RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - RTR-GS: 3D Gaussian Splatting for Inverse Rendering with Radiance Transfer and Reflection [16.81533668816093]
RTR-GSは、任意の反射特性を持つオブジェクトを堅牢にレンダリングし、BRDFと照明を分解し、信頼性の高いリライト結果を提供する、新しい逆レンダリングフレームワークである。
提案手法は,効率的なトレーニング推論プロセスを維持しつつ,新しいビュー合成,正規推定,分解,リライティングを向上することを示す。
論文 参考訳(メタデータ) (2025-07-10T13:13:08Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [9.070464075411472]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
新たに収集されたデータセットであるSubmerged3Dは、特に深海環境においてキャプチャされる。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - R3GS: Gaussian Splatting for Robust Reconstruction and Relocalization in Unconstrained Image Collections [9.633163304379861]
R3GSは、制約のないデータセットに適した堅牢な再構築と再ローカライゼーションフレームワークである。
過渡的物体の復元過程に対する悪影響を軽減するため,軽量な人検出ネットワークを構築した。
本研究では,屋外シーンにおける空域の課題に対処するために,事前の奥行きを制約として組み込んだ効果的なスカイハンドリング手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T09:25:22Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - PGSR: Planar-based Gaussian Splatting for Efficient and High-Fidelity Surface Reconstruction [37.14913599050765]
高忠実表面再構成を実現するために,高速平面型ガウススプラッティング再構成表現(PGSR)を提案する。
次に、大域的幾何精度を維持するために、一視点幾何、多視点測光、幾何正則化を導入する。
提案手法は3DGS法およびNeRF法よりも優れた高忠実度レンダリングと幾何再構成を維持しつつ,高速なトレーニングとレンダリングを実現する。
論文 参考訳(メタデータ) (2024-06-10T17:59:01Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。