論文の概要: SWAGSplatting: Semantic-guided Water-scene Augmented Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.00800v1
- Date: Sun, 31 Aug 2025 11:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.401373
- Title: SWAGSplatting: Semantic-guided Water-scene Augmented Gaussian Splatting
- Title(参考訳): SWAGSplatting: セマンティック誘導水シーン増設ガウススプラッティング
- Authors: Zhuodong Jiang, Haoran Wang, Guoxi Huang, Brett Seymour, Nantheera Anantrasirichai,
- Abstract要約: 本研究では,マルチモーダルなクロス知識を活用してセマンティック誘導型3次元ガウス平滑化手法を提案する。
われわれの手法はSeaThru-NeRFとSubmerged3Dデータセットの最先端手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 9.070464075411472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 3D reconstruction in underwater environments remains a complex challenge due to issues such as light distortion, turbidity, and limited visibility. AI-based techniques have been applied to address these issues, however, existing methods have yet to fully exploit the potential of AI, particularly in integrating language models with visual processing. In this paper, we propose a novel framework that leverages multimodal cross-knowledge to create semantic-guided 3D Gaussian Splatting for robust and high-fidelity deep-sea scene reconstruction. By embedding an extra semantic feature into each Gaussian primitive and supervised by the CLIP extracted semantic feature, our method enforces semantic and structural awareness throughout the training. The dedicated semantic consistency loss ensures alignment with high-level scene understanding. Besides, we propose a novel stage-wise training strategy, combining coarse-to-fine learning with late-stage parameter refinement, to further enhance both stability and reconstruction quality. Extensive results show that our approach consistently outperforms state-of-the-art methods on SeaThru-NeRF and Submerged3D datasets across three metrics, with an improvement of up to 3.09 dB on average in terms of PSNR, making it a strong candidate for applications in underwater exploration and marine perception.
- Abstract(参考訳): 水中環境における正確な3D再構成は、光の歪み、濁度、視界の制限などの問題により、依然として複雑な課題である。
これらの問題に対処するためにAIベースのテクニックが適用されているが、既存の手法はまだAIの可能性を完全に活用していない。
本稿では,マルチモーダルなクロス知識を活用してセマンティック誘導型3次元ガウシアン・スプレイティングを,堅牢で高忠実な深海景観再構築のために構築する新しいフレームワークを提案する。
CLIP抽出したセマンティック機能により,各ガウスプリミティブに余分なセマンティック機能を組み込むことで,トレーニング全体を通して意味的および構造的認識を強制する。
専用のセマンティック一貫性損失は、ハイレベルなシーン理解との整合性を保証する。
さらに, 粗粒度学習と後期パラメータ改善を併用した新しい段階学習戦略を提案し, 安定性と再構築品質の両立を図っている。
以上の結果から,Sythru-NeRF法とSubmerged3D法では,PSNR法で平均3.09dBの精度が向上し,海洋探査や海洋観測の応用に強い可能性が示唆された。
関連論文リスト
- SonarSweep: Fusing Sonar and Vision for Robust 3D Reconstruction via Plane Sweeping [6.826863809223021]
3次元再構成への単一モダリティアプローチは、視認性や幾何学的制約が低いために失敗する。
それまでの融合技術は、欠陥のある幾何学に依存しており、重要なアーティファクトと複雑なシーンをモデル化することができない。
本稿では,これらの制約を克服する新しいエンドツーエンドディープラーニングフレームワークであるSonarSweepを紹介する。
論文 参考訳(メタデータ) (2025-11-01T04:12:27Z) - GauSSmart: Enhanced 3D Reconstruction through 2D Foundation Models and Geometric Filtering [50.675710727721786]
2次元基礎モデルと3次元ガウススプラッティング再構成をブリッジするハイブリッド手法であるGauSSmartを提案する。
提案手法は,凸フィルタリングや意味的特徴監視など,確立した2次元コンピュータビジョン技術を統合している。
GauSSmartは既存のGaussian Splattingよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-10-16T03:38:26Z) - From Restoration to Reconstruction: Rethinking 3D Gaussian Splatting for Underwater Scenes [13.730810237133822]
水中画像復元(UIR)を3次元ガウススプラッティング(DGS)でブリッジする統合フレームワークである textbfR-Splatting を提案する。
提案手法は,多様なUIRモデルによって生成された複数の拡張ビューを1つの再構築パイプラインに統合する。
Seathru-NeRFと新しいBlueCoral3Dデータセットの実験により、R-Splattingはレンダリング品質と幾何学的精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-22T13:50:20Z) - DET-GS: Depth- and Edge-Aware Regularization for High-Fidelity 3D Gaussian Splatting [5.759434800012218]
3D Gaussian Splatting (3DGS) は、効率的かつ高忠実な新規なビュー合成の分野において重要な進歩を示している。
既存の手法はしばしば非局所的な深さ正規化に依存しており、微細な構造を捉えることができない。
本稿では,3次元ガウス平滑化のための深度とエッジ認識の統一正規化フレームワークであるDET-GSを提案する。
論文 参考訳(メタデータ) (2025-08-06T05:37:26Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - JointSplat: Probabilistic Joint Flow-Depth Optimization for Sparse-View Gaussian Splatting [10.690965024885358]
スパースの観点から3Dシーンを再構築することは、幅広いアプリケーションにおいて長年にわたる課題である。
近年のフィードフォワード3Dガウスのスパースビュー再構成法は, リアルタイムな新規ビュー合成のための効率的な解法である。
光学的流れと深さの相補性を利用する統一的なフレームワークであるJointSplatを提案する。
論文 参考訳(メタデータ) (2025-06-04T12:04:40Z) - RUSplatting: Robust 3D Gaussian Splatting for Sparse-View Underwater Scene Reconstruction [9.070464075411472]
本稿では,水中深部レンダリングの視覚的品質と精度を両立させる,ガウススプラッティングに基づくフレームワークを提案する。
水中減衰の物理によって導かれるRGBチャネルの分離学習を提案し,より正確な色復元を実現する。
新たに収集されたデータセットであるSubmerged3Dは、特に深海環境においてキャプチャされる。
論文 参考訳(メタデータ) (2025-05-21T16:42:15Z) - StableGS: A Floater-Free Framework for 3D Gaussian Splatting [9.935869165752283]
3D Gaussian Splatting(3DGS)の復元は、その幾何学的および視覚的忠実さを低下させるスタバボーンフローター(stbborn floater)のアーティファクトに悩まされている。
最終的な外観レンダリングから幾何正規化を分離する新しいフレームワークであるStableGSを提案する。
複数のベンチマークの実験では、StableGSはフローターを除去するだけでなく、一般的なぼやけたアーチファクトのトレードオフも解決している。
論文 参考訳(メタデータ) (2025-03-24T09:02:51Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - ALOcc: Adaptive Lifting-Based 3D Semantic Occupancy and Cost Volume-Based Flow Predictions [91.55655961014027]
シーン理解には3次元セマンティック占有とフロー予測が不可欠である。
本稿では,3つの改善点を目標とした視覚ベースのフレームワークを提案する。
我々の純粋な畳み込みアーキテクチャは、セマンティック占有率とジョイントセマンティックフロー予測の両方のために、複数のベンチマーク上で新しいSOTA性能を確立する。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - GaussianBody: Clothed Human Reconstruction via 3d Gaussian Splatting [14.937297984020821]
本稿では,3次元ガウシアンスプラッティングをベースとした,ガウシアンボディと呼ばれる新しい布地復元手法を提案する。
静的な3次元ガウススメッティングモデルを動的復元問題に適用することは、複雑な非剛性変形とリッチな布の細部のために非自明である。
本手法は,ダイナミックな衣料人体に高精細な画質で,最先端のフォトリアリスティックなノベルビューレンダリングを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-18T04:48:13Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。