論文の概要: SWAGSplatting: Semantic-guided Water-scene Augmented Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.00800v1
- Date: Sun, 31 Aug 2025 11:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.401373
- Title: SWAGSplatting: Semantic-guided Water-scene Augmented Gaussian Splatting
- Title(参考訳): SWAGSplatting: セマンティック誘導水シーン増設ガウススプラッティング
- Authors: Zhuodong Jiang, Haoran Wang, Guoxi Huang, Brett Seymour, Nantheera Anantrasirichai,
- Abstract要約: 本研究では,マルチモーダルなクロス知識を活用してセマンティック誘導型3次元ガウス平滑化手法を提案する。
われわれの手法はSeaThru-NeRFとSubmerged3Dデータセットの最先端手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 9.070464075411472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 3D reconstruction in underwater environments remains a complex challenge due to issues such as light distortion, turbidity, and limited visibility. AI-based techniques have been applied to address these issues, however, existing methods have yet to fully exploit the potential of AI, particularly in integrating language models with visual processing. In this paper, we propose a novel framework that leverages multimodal cross-knowledge to create semantic-guided 3D Gaussian Splatting for robust and high-fidelity deep-sea scene reconstruction. By embedding an extra semantic feature into each Gaussian primitive and supervised by the CLIP extracted semantic feature, our method enforces semantic and structural awareness throughout the training. The dedicated semantic consistency loss ensures alignment with high-level scene understanding. Besides, we propose a novel stage-wise training strategy, combining coarse-to-fine learning with late-stage parameter refinement, to further enhance both stability and reconstruction quality. Extensive results show that our approach consistently outperforms state-of-the-art methods on SeaThru-NeRF and Submerged3D datasets across three metrics, with an improvement of up to 3.09 dB on average in terms of PSNR, making it a strong candidate for applications in underwater exploration and marine perception.
- Abstract(参考訳): 水中環境における正確な3D再構成は、光の歪み、濁度、視界の制限などの問題により、依然として複雑な課題である。
これらの問題に対処するためにAIベースのテクニックが適用されているが、既存の手法はまだAIの可能性を完全に活用していない。
本稿では,マルチモーダルなクロス知識を活用してセマンティック誘導型3次元ガウシアン・スプレイティングを,堅牢で高忠実な深海景観再構築のために構築する新しいフレームワークを提案する。
CLIP抽出したセマンティック機能により,各ガウスプリミティブに余分なセマンティック機能を組み込むことで,トレーニング全体を通して意味的および構造的認識を強制する。
専用のセマンティック一貫性損失は、ハイレベルなシーン理解との整合性を保証する。
さらに, 粗粒度学習と後期パラメータ改善を併用した新しい段階学習戦略を提案し, 安定性と再構築品質の両立を図っている。
以上の結果から,Sythru-NeRF法とSubmerged3D法では,PSNR法で平均3.09dBの精度が向上し,海洋探査や海洋観測の応用に強い可能性が示唆された。
関連論文リスト
- RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - JointSplat: Probabilistic Joint Flow-Depth Optimization for Sparse-View Gaussian Splatting [10.690965024885358]
スパースの観点から3Dシーンを再構築することは、幅広いアプリケーションにおいて長年にわたる課題である。
近年のフィードフォワード3Dガウスのスパースビュー再構成法は, リアルタイムな新規ビュー合成のための効率的な解法である。
光学的流れと深さの相補性を利用する統一的なフレームワークであるJointSplatを提案する。
論文 参考訳(メタデータ) (2025-06-04T12:04:40Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [9.070464075411472]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
新たに収集されたデータセットであるSubmerged3Dは、特に深海環境においてキャプチャされる。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - StableGS: A Floater-Free Framework for 3D Gaussian Splatting [9.935869165752283]
3D Gaussian Splatting(3DGS)の復元は、その幾何学的および視覚的忠実さを低下させるスタバボーンフローター(stbborn floater)のアーティファクトに悩まされている。
最終的な外観レンダリングから幾何正規化を分離する新しいフレームワークであるStableGSを提案する。
複数のベンチマークの実験では、StableGSはフローターを除去するだけでなく、一般的なぼやけたアーチファクトのトレードオフも解決している。
論文 参考訳(メタデータ) (2025-03-24T09:02:51Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - GaussianBody: Clothed Human Reconstruction via 3d Gaussian Splatting [14.937297984020821]
本稿では,3次元ガウシアンスプラッティングをベースとした,ガウシアンボディと呼ばれる新しい布地復元手法を提案する。
静的な3次元ガウススメッティングモデルを動的復元問題に適用することは、複雑な非剛性変形とリッチな布の細部のために非自明である。
本手法は,ダイナミックな衣料人体に高精細な画質で,最先端のフォトリアリスティックなノベルビューレンダリングを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-18T04:48:13Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。