論文の概要: WaterClear-GS: Optical-Aware Gaussian Splatting for Underwater Reconstruction and Restoration
- arxiv url: http://arxiv.org/abs/2601.19753v1
- Date: Tue, 27 Jan 2026 16:14:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.388741
- Title: WaterClear-GS: Optical-Aware Gaussian Splatting for Underwater Reconstruction and Restoration
- Title(参考訳): WaterClear-GS: 水中の修復と修復のための光学的ガウススプレイティング
- Authors: Xinrui Zhang, Yufeng Wang, Shuangkang Fang, Zesheng Wang, Dacheng Qi, Wenrui Ding,
- Abstract要約: 水中光学特性をガウス原始体に統合する初の純3DGSベースのフレームワークであるWaterClear-GSを紹介する。
本手法では,水中での光度整合性を確保しつつ,自然に無水外観を回復させるために,二重ブランチ最適化手法を用いる。
標準ベンチマークと新たに収集したデータセットを用いて,新しいビュー合成(NVS)と水中画像復元の両タスクにおいて,WaterClear-GSが優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 11.520966034974697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater 3D reconstruction and appearance restoration are hindered by the complex optical properties of water, such as wavelength-dependent attenuation and scattering. Existing Neural Radiance Fields (NeRF)-based methods struggle with slow rendering speeds and suboptimal color restoration, while 3D Gaussian Splatting (3DGS) inherently lacks the capability to model complex volumetric scattering effects. To address these issues, we introduce WaterClear-GS, the first pure 3DGS-based framework that explicitly integrates underwater optical properties of local attenuation and scattering into Gaussian primitives, eliminating the need for an auxiliary medium network. Our method employs a dual-branch optimization strategy to ensure underwater photometric consistency while naturally recovering water-free appearances. This strategy is enhanced by depth-guided geometry regularization and perception-driven image loss, together with exposure constraints, spatially-adaptive regularization, and physically guided spectral regularization, which collectively enforce local 3D coherence and maintain natural visual perception. Experiments on standard benchmarks and our newly collected dataset demonstrate that WaterClear-GS achieves outstanding performance on both novel view synthesis (NVS) and underwater image restoration (UIR) tasks, while maintaining real-time rendering. The code will be available at https://buaaxrzhang.github.io/WaterClear-GS/.
- Abstract(参考訳): 水中の3D再構成と外観復元は、波長依存性の減衰や散乱のような水の複雑な光学的性質によって妨げられる。
既存のNeRF(Neural Radiance Fields)ベースの手法は、レンダリング速度の遅さと最適色復元に苦しむ一方、3Dガウススプラッティング(3DGS)は本質的に複雑な体積散乱効果をモデル化する能力に欠ける。
これらの問題に対処するために、我々は、局所減衰とガウス原始体への散乱の水中光学特性を明示的に統合し、補助媒体ネットワークの必要性を排除した最初の純3DGSベースのフレームワークであるWaterClear-GSを紹介した。
本手法では,水中での光度整合性を確保しつつ,自然に無水外観を回復させるために,二重ブランチ最適化手法を用いる。
この戦略は、深度誘導幾何正則化と知覚駆動画像損失、露出制約、空間適応正則化、および局所的な3次元コヒーレンスを総合的に実施し、自然な視覚知覚を維持する物理的ガイド付きスペクトル正則化によって強化される。
標準ベンチマークと新たに収集したデータセットを用いて,新しいビュー合成(NVS)タスクと水中画像復元(UIR)タスクの両方において,リアルタイムレンダリングを維持しながら優れた性能を発揮することを示す。
コードはhttps://buaaxrzhang.github.io/WaterClear-GS/で入手できる。
関連論文リスト
- From Restoration to Reconstruction: Rethinking 3D Gaussian Splatting for Underwater Scenes [13.730810237133822]
水中画像復元(UIR)を3次元ガウススプラッティング(DGS)でブリッジする統合フレームワークである textbfR-Splatting を提案する。
提案手法は,多様なUIRモデルによって生成された複数の拡張ビューを1つの再構築パイプラインに統合する。
Seathru-NeRFと新しいBlueCoral3Dデータセットの実験により、R-Splattingはレンダリング品質と幾何学的精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-22T13:50:20Z) - 3D-UIR: 3D Gaussian for Underwater 3D Scene Reconstruction via Physics Based Appearance-Medium Decoupling [30.985414238960466]
3D Gaussian Splatting (3DGS)はリアルタイムレンダリング機能を提供するが、水中の不均一な環境に苦しむ。
水媒体効果から物体の外観を遠ざける物理ベースの枠組みを提案する。
提案手法は,高品質な新規ビュー合成と物理的に正確なシーン復元を実現する。
論文 参考訳(メタデータ) (2025-05-27T14:19:30Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [9.070464075411472]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
新たに収集されたデータセットであるSubmerged3Dは、特に深海環境においてキャプチャされる。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - GeoSplatting: Towards Geometry Guided Gaussian Splatting for Physically-based Inverse Rendering [69.67264955234494]
GeoSplattingは、3DGSを精密な光輸送モデリングのための明確な幾何学的ガイダンスで拡張する新しいアプローチである。
最適化可能なメッシュから表面積の3DGSを微分的に構築することにより、明確に定義されたメッシュ正規と不透明なメッシュ表面を利用する。
この強化により、3DGSの効率性と高品質なレンダリング能力を保ちながら、正確な材料分解が保証される。
論文 参考訳(メタデータ) (2024-10-31T17:57:07Z) - WaterHE-NeRF: Water-ray Tracing Neural Radiance Fields for Underwater
Scene Reconstruction [6.036702530679703]
本研究では,3次元空間における色,密度,照度減衰を正確にエンコードするRetinex理論による新しい水線トレーシング場を開発する。
WaterHE-NeRFは、その発光減衰機構を通じて、劣化画像と鮮明な多視点画像の両方を生成する。
論文 参考訳(メタデータ) (2023-12-12T02:55:14Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。