論文の概要: UW-3DGS: Underwater 3D Reconstruction with Physics-Aware Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.06169v1
- Date: Fri, 08 Aug 2025 09:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.181228
- Title: UW-3DGS: Underwater 3D Reconstruction with Physics-Aware Gaussian Splatting
- Title(参考訳): UW-3DGS:物理を意識したガウス散乱による水中3次元再構成
- Authors: Wenpeng Xing, Jie Chen, Zaifeng Yang, Changting Lin, Jianfeng Dong, Chaochao Chen, Xun Zhou, Meng Han,
- Abstract要約: UW-3DGS, 3D Gaussianting (3DGS) をロバストな水中再構築に応用した新しいフレームワークについて紹介する。
主なイノベーションは,(1) 空間的減衰と後方散乱にボクセルによる回帰を用いた, 学習可能な水中画像形成モジュールである。
SeaThru-NeRFとUWBundleデータセットの実験では、PSNRが27.604、SSIMが0.868、LPIPSが0.104、浮動小天体が65%減少している。
- 参考スコア(独自算出の注目度): 31.813166209083303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater 3D scene reconstruction faces severe challenges from light absorption, scattering, and turbidity, which degrade geometry and color fidelity in traditional methods like Neural Radiance Fields (NeRF). While NeRF extensions such as SeaThru-NeRF incorporate physics-based models, their MLP reliance limits efficiency and spatial resolution in hazy environments. We introduce UW-3DGS, a novel framework adapting 3D Gaussian Splatting (3DGS) for robust underwater reconstruction. Key innovations include: (1) a plug-and-play learnable underwater image formation module using voxel-based regression for spatially varying attenuation and backscatter; and (2) a Physics-Aware Uncertainty Pruning (PAUP) branch that adaptively removes noisy floating Gaussians via uncertainty scoring, ensuring artifact-free geometry. The pipeline operates in training and rendering stages. During training, noisy Gaussians are optimized end-to-end with underwater parameters, guided by PAUP pruning and scattering modeling. In rendering, refined Gaussians produce clean Unattenuated Radiance Images (URIs) free from media effects, while learned physics enable realistic Underwater Images (UWIs) with accurate light transport. Experiments on SeaThru-NeRF and UWBundle datasets show superior performance, achieving PSNR of 27.604, SSIM of 0.868, and LPIPS of 0.104 on SeaThru-NeRF, with ~65% reduction in floating artifacts.
- Abstract(参考訳): 水中3Dシーンの再構築は、ニューラル・レージアンス・フィールド(NeRF)のような従来の手法で幾何や色の忠実さを劣化させる光吸収、散乱、濁度による深刻な課題に直面している。
SeaThru-NeRFのようなNeRF拡張には物理モデルが組み込まれているが、それらのMLP依存は、ヘイズ環境での効率と空間分解能を制限する。
UW-3DGS, 3D Gaussian Splatting (3DGS) をロバストな水中再構築に応用した新しいフレームワークについて紹介する。
主なイノベーションは,(1) 空間的減衰と後方散乱にボクセルによる回帰を用いた学習可能な水中画像形成モジュール,(2) 不確実性評価によりノイズの多いガウシアンを適応的に除去し,人工物のない幾何を保証する物理認識不確実性プランニング(PAUP)ブランチである。
パイプラインはトレーニングとレンダリングの段階で動作する。
トレーニング中、ノイズの多いガウス人は、PAUPプルーニングと散乱モデリングによって導かれる水中パラメータでエンドツーエンドに最適化されている。
レンダリングにおいて、洗練されたガウシアンはメディア効果のないクリーンな未減衰放射画像(URI)を作成し、物理を学習することで正確な光輸送でリアルな水中画像(UWI)を可能にする。
SeaThru-NeRFとUWBundleデータセットの実験では、PSNRが27.604、SSIMが0.868、LPIPSが0.104、浮動小天体が約65%削減された。
関連論文リスト
- 3D-UIR: 3D Gaussian for Underwater 3D Scene Reconstruction via Physics Based Appearance-Medium Decoupling [30.985414238960466]
3D Gaussian Splatting (3DGS)はリアルタイムレンダリング機能を提供するが、水中の不均一な環境に苦しむ。
水媒体効果から物体の外観を遠ざける物理ベースの枠組みを提案する。
提案手法は,高品質な新規ビュー合成と物理的に正確なシーン復元を実現する。
論文 参考訳(メタデータ) (2025-05-27T14:19:30Z) - TUGS: Physics-based Compact Representation of Underwater Scenes by Tensorized Gaussian [6.819210285113731]
水中ガウススティング(TUGS)は、物体と水媒体の複雑な相互作用のモデリング課題を効果的に解決することができる。
水中用に設計された他のNeRFおよびGSベースの方法と比較して、TUGSは高速なレンダリング速度とメモリ使用量の削減で高品質な水中画像をレンダリングすることができる。
論文 参考訳(メタデータ) (2025-05-12T07:09:35Z) - AquaGS: Fast Underwater Scene Reconstruction with SfM-Free Gaussian Splatting [4.0317256978754505]
本研究では,SeaThruアルゴリズムに基づくSfMのない水中シーン再構築モデルであるAquaGSを紹介する。
本モデルでは,画像入力をわずか3秒で30秒で高精度に再現できる。
論文 参考訳(メタデータ) (2025-05-03T12:05:57Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - UW-GS: Distractor-Aware 3D Gaussian Splatting for Enhanced Underwater Scene Reconstruction [15.624536266709633]
3D Gaussian splatting (3DGS) はリアルタイムの高品質な3Dシーンレンダリングを実現する機能を提供する。
しかし、3DGSは、シーンが透明な中性環境にあると仮定し、水中のシーンで満足できる表現を生成するのに苦労している。
水中用途に特化して設計された新しいガウススプラッティング方式UW-GSを提案する。
論文 参考訳(メタデータ) (2024-10-02T13:08:56Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Dynamic Mesh-Aware Radiance Fields [75.59025151369308]
本稿では,メッシュとNeRFの双方向結合をレンダリングおよびシミュレーション時に設計する。
ハイブリッドシステムはメッシュ挿入のための視覚リアリズムの代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:18:18Z) - DehazeNeRF: Multiple Image Haze Removal and 3D Shape Reconstruction
using Neural Radiance Fields [56.30120727729177]
DehazeNeRFは,湿潤な環境下で頑健に動作するフレームワークとして紹介する。
提案手法は,複数視点のヘイズ除去,新しいビュー合成,既存手法が失敗する3次元形状再構成を成功させるものである。
論文 参考訳(メタデータ) (2023-03-20T18:03:32Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。