論文の概要: AquaGS: Fast Underwater Scene Reconstruction with SfM-Free Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2505.01799v1
- Date: Sat, 03 May 2025 12:05:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.273386
- Title: AquaGS: Fast Underwater Scene Reconstruction with SfM-Free Gaussian Splatting
- Title(参考訳): AquaGS: SfM-free Gaussian Splatting を用いた水中高速撮影
- Authors: Junhao Shi, Jisheng Xu, Jianping He, Zhiliang Lin,
- Abstract要約: 本研究では,SeaThruアルゴリズムに基づくSfMのない水中シーン再構築モデルであるAquaGSを紹介する。
本モデルでは,画像入力をわずか3秒で30秒で高精度に再現できる。
- 参考スコア(独自算出の注目度): 4.0317256978754505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater scene reconstruction is a critical tech-nology for underwater operations, enabling the generation of 3D models from images captured by underwater platforms. However, the quality of underwater images is often degraded due to medium interference, which limits the effectiveness of Structure-from-Motion (SfM) pose estimation, leading to subsequent reconstruction failures. Additionally, SfM methods typically operate at slower speeds, further hindering their applicability in real-time scenarios. In this paper, we introduce AquaGS, an SfM-free underwater scene reconstruction model based on the SeaThru algorithm, which facilitates rapid and accurate separation of scene details and medium features. Our approach initializes Gaussians by integrating state-of-the-art multi-view stereo (MVS) technology, employs implicit Neural Radiance Fields (NeRF) for rendering translucent media and utilizes the latest explicit 3D Gaussian Splatting (3DGS) technique to render object surfaces, which effectively addresses the limitations of traditional methods and accurately simulates underwater optical phenomena. Experimental results on the data set and the robot platform show that our model can complete high-precision reconstruction in 30 seconds with only 3 image inputs, significantly enhancing the practical application of the algorithm in robotic platforms.
- Abstract(参考訳): 水中シーンの再構築は水中操作にとって重要な技術であり、水中プラットフォームで撮影された画像から3Dモデルを生成することができる。
しかし, 水中画像の画質は, 媒体干渉により劣化し, 構造移動(Structure-from-Motion, SfM)のポーズ推定の有効性が低下し, その後の再建に失敗する。
さらに、SfMメソッドは一般的に遅い速度で動作し、リアルタイムシナリオにおける適用性を妨げている。
本論文では,SeaThruアルゴリズムに基づくSfMのない水中シーン再構成モデルであるAquaGSを紹介し,シーンの詳細と媒体の特徴の迅速かつ正確な分離を容易にする。
提案手法は,最先端多視点ステレオ (MVS) 技術を統合することでガウスを初期化し,透過性媒体の描画に暗黙のニューラル・ラジアン・フィールド (NeRF) を用い,オブジェクト表面の描画に最新の明示的な3Dガウス・スプレイティング (3DGS) 技術を用いて,従来の手法の限界に効果的に対処し,水中光学現象を正確にシミュレートする。
データセットとロボットプラットフォームを用いた実験結果から,3つの画像入力だけで30秒で高精度な再構成を達成できることが示され,ロボットプラットフォームにおけるアルゴリズムの実践的応用が著しく向上した。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Fast Underwater Scene Reconstruction using Multi-View Stereo and Physical Imaging [5.676974245780037]
本研究では,マルチビューステレオ吸収(MVS)と物理に基づく水中画像形成モデルを統合する新しい手法を提案する。
媒体を利用して媒体パラメータを推定し、レンダリング用の色と組み合わせることで、水中シーンの真の色を復元する。
実験結果から, 散乱媒体における新規ビューの高品質な合成, 媒体の除去によるビューの復元, レンダリング精度, トレーニング効率において, 既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-01-21T04:35:27Z) - Gaussian Splashing: Direct Volumetric Rendering Underwater [6.2122699483618]
本稿では,新しい水中シーンを140FPSでレンダリングし,再現に数分しかかからない新しい手法を提案する。
本手法は3DGSの強度と速度を画像形成モデルと統合し,散乱を捕捉する。
他の方法よりもはるかに明確で、再構成された画像や描画された画像が劇的に改善されている。
論文 参考訳(メタデータ) (2024-11-29T10:04:38Z) - Aquatic-GS: A Hybrid 3D Representation for Underwater Scenes [6.549998173302729]
本研究では,水中の物体と水媒体の両方を効果的に表現するハイブリッド3D表現手法であるAquatic-GSを提案する。
具体的には、暗黙的に水パラメータをモデル化するニューラルウォーターフィールド(NWF)を構築し、最新の3Dガウススプラッティング(3DGS)を拡張してオブジェクトを明示的にモデル化する。
両方のコンポーネントは、複雑な水中シーンを表現するために、物理学に基づく水中画像形成モデルを介して統合される。
論文 参考訳(メタデータ) (2024-10-31T22:24:56Z) - UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。