論文の概要: 3D-UIR: 3D Gaussian for Underwater 3D Scene Reconstruction via Physics Based Appearance-Medium Decoupling
- arxiv url: http://arxiv.org/abs/2505.21238v2
- Date: Thu, 29 May 2025 11:31:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 13:10:25.75608
- Title: 3D-UIR: 3D Gaussian for Underwater 3D Scene Reconstruction via Physics Based Appearance-Medium Decoupling
- Title(参考訳): 3D-UIR:物理に基づく外観-ナトリウムデカップリングによる水中3次元シーン再構築のための3Dガウスアン
- Authors: Jieyu Yuan, Yujun Li, Yuanlin Zhang, Chunle Guo, Xiongxin Tang, Ruixing Wang, Chongyi Li,
- Abstract要約: 3D Gaussian Splatting (3DGS)はリアルタイムレンダリング機能を提供するが、水中の不均一な環境に苦しむ。
水媒体効果から物体の外観を遠ざける物理ベースの枠組みを提案する。
提案手法は,高品質な新規ビュー合成と物理的に正確なシーン復元を実現する。
- 参考スコア(独自算出の注目度): 30.985414238960466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis for underwater scene reconstruction presents unique challenges due to complex light-media interactions. Optical scattering and absorption in water body bring inhomogeneous medium attenuation interference that disrupts conventional volume rendering assumptions of uniform propagation medium. While 3D Gaussian Splatting (3DGS) offers real-time rendering capabilities, it struggles with underwater inhomogeneous environments where scattering media introduce artifacts and inconsistent appearance. In this study, we propose a physics-based framework that disentangles object appearance from water medium effects through tailored Gaussian modeling. Our approach introduces appearance embeddings, which are explicit medium representations for backscatter and attenuation, enhancing scene consistency. In addition, we propose a distance-guided optimization strategy that leverages pseudo-depth maps as supervision with depth regularization and scale penalty terms to improve geometric fidelity. By integrating the proposed appearance and medium modeling components via an underwater imaging model, our approach achieves both high-quality novel view synthesis and physically accurate scene restoration. Experiments demonstrate our significant improvements in rendering quality and restoration accuracy over existing methods. The project page is available at https://bilityniu.github.io/3D-UIR.
- Abstract(参考訳): 水中のシーン再構成のための新しいビュー合成は、複雑な光-媒体相互作用による固有の課題を提示する。
水中における光散乱と吸収は、均一な伝搬媒体の従来のボリュームレンダリング仮定を妨害する不均一な媒体減衰干渉をもたらす。
3D Gaussian Splatting(3DGS)はリアルタイムレンダリング機能を提供しているが、散乱媒体が人工物や無矛盾な外観をもたらす水中の不均一環境に苦戦している。
本研究では,水媒体効果から物体の外観を遠ざける物理に基づく枠組みを提案する。
提案手法では,後方散乱と減衰のメディア表現を明示的に表現した外観埋め込みを導入し,シーンの整合性を向上させる。
さらに,擬似深度マップを深度正規化とスケールペナルティ項の監督に活用し,幾何学的忠実度を向上する距離誘導最適化手法を提案する。
提案手法を水中画像モデルにより統合することにより,高品質な新規ビュー合成と物理的に正確なシーン復元を実現する。
既存の手法に比べてレンダリング品質と復元精度が大幅に向上したことを示す実験を行った。
プロジェクトページはhttps://bilityniu.github.io/3D-UIR.comで公開されている。
関連論文リスト
- Plenodium: UnderWater 3D Scene Reconstruction with Plenoptic Medium Representation [31.47797579690604]
Plenodiumは、オブジェクトと参加メディアの両方を共同でモデリングできる3D表現フレームワークである。
ビュー依存モデリングにのみ依存する既存の媒体表現とは対照的に,本手法では指向性情報と位置情報の両方を包含する。
実世界の水中データセットを用いた実験により,本手法は3次元再構成において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2025-05-27T14:37:58Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [15.366193984872671]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
また,深海コンテンツに不可欠なエッジを保ちながらノイズ低減を目的とした新たな損失関数も導入した。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - AquaGS: Fast Underwater Scene Reconstruction with SfM-Free Gaussian Splatting [4.0317256978754505]
本研究では,SeaThruアルゴリズムに基づくSfMのない水中シーン再構築モデルであるAquaGSを紹介する。
本モデルでは,画像入力をわずか3秒で30秒で高精度に再現できる。
論文 参考訳(メタデータ) (2025-05-03T12:05:57Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - UW-GS: Distractor-Aware 3D Gaussian Splatting for Enhanced Underwater Scene Reconstruction [15.624536266709633]
3D Gaussian splatting (3DGS) はリアルタイムの高品質な3Dシーンレンダリングを実現する機能を提供する。
しかし、3DGSは、シーンが透明な中性環境にあると仮定し、水中のシーンで満足できる表現を生成するのに苦労している。
水中用途に特化して設計された新しいガウススプラッティング方式UW-GSを提案する。
論文 参考訳(メタデータ) (2024-10-02T13:08:56Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [97.76840585617907]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。