論文の概要: SonarSweep: Fusing Sonar and Vision for Robust 3D Reconstruction via Plane Sweeping
- arxiv url: http://arxiv.org/abs/2511.00392v1
- Date: Sat, 01 Nov 2025 04:12:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.753649
- Title: SonarSweep: Fusing Sonar and Vision for Robust 3D Reconstruction via Plane Sweeping
- Title(参考訳): SonarSweep:Fusing Sonar and Vision for Robust 3D Reconstruction via Plane Sweeping
- Authors: Lingpeng Chen, Jiakun Tang, Apple Pui-Yi Chui, Ziyang Hong, Junfeng Wu,
- Abstract要約: 3次元再構成への単一モダリティアプローチは、視認性や幾何学的制約が低いために失敗する。
それまでの融合技術は、欠陥のある幾何学に依存しており、重要なアーティファクトと複雑なシーンをモデル化することができない。
本稿では,これらの制約を克服する新しいエンドツーエンドディープラーニングフレームワークであるSonarSweepを紹介する。
- 参考スコア(独自算出の注目度): 6.826863809223021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D reconstruction in visually-degraded underwater environments remains a formidable challenge. Single-modality approaches are insufficient: vision-based methods fail due to poor visibility and geometric constraints, while sonar is crippled by inherent elevation ambiguity and low resolution. Consequently, prior fusion technique relies on heuristics and flawed geometric assumptions, leading to significant artifacts and an inability to model complex scenes. In this paper, we introduce SonarSweep, a novel, end-to-end deep learning framework that overcomes these limitations by adapting the principled plane sweep algorithm for cross-modal fusion between sonar and visual data. Extensive experiments in both high-fidelity simulation and real-world environments demonstrate that SonarSweep consistently generates dense and accurate depth maps, significantly outperforming state-of-the-art methods across challenging conditions, particularly in high turbidity. To foster further research, we will publicly release our code and a novel dataset featuring synchronized stereo-camera and sonar data, the first of its kind.
- Abstract(参考訳): 視覚的に劣化した水中環境における正確な3D再構成は、依然として困難な課題である。
視力に基づく手法は視認性や幾何学的制約が乏しいために失敗し、ソナーは固有の標高の曖昧さと解像度の低さによって損なわれている。
その結果、事前融合技術はヒューリスティックスや幾何学的な仮定に頼っており、重要な人工物や複雑なシーンをモデル化することができない。
本稿では,ソナーとヴィジュアルデータ間のクロスモーダル融合のための基本平面スイープアルゴリズムを適用することで,これらの制限を克服する新しいエンドツーエンドディープラーニングフレームワークであるSonarSweepを紹介する。
高忠実度シミュレーションと実世界の環境の両方における大規模な実験により、SonarSweepは密で正確な深度マップを一貫して生成し、特に高濁度において、挑戦的な状況における最先端の手法を大幅に上回った。
さらなる研究を促進するため、我々はコードと同期ステレオカメラとソナーデータを備えた新しいデータセットを公開します。
関連論文リスト
- OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - Plenodium: UnderWater 3D Scene Reconstruction with Plenoptic Medium Representation [31.47797579690604]
Plenodiumは、オブジェクトと参加メディアの両方を共同でモデリングできる3D表現フレームワークである。
ビュー依存モデリングにのみ依存する既存の媒体表現とは対照的に,本手法では指向性情報と位置情報の両方を包含する。
実世界の水中データセットを用いた実験により,本手法は3次元再構成において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2025-05-27T14:37:58Z) - 3D-UIR: 3D Gaussian for Underwater 3D Scene Reconstruction via Physics Based Appearance-Medium Decoupling [30.985414238960466]
3D Gaussian Splatting (3DGS)はリアルタイムレンダリング機能を提供するが、水中の不均一な環境に苦しむ。
水媒体効果から物体の外観を遠ざける物理ベースの枠組みを提案する。
提案手法は,高品質な新規ビュー合成と物理的に正確なシーン復元を実現する。
論文 参考訳(メタデータ) (2025-05-27T14:19:30Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。