論文の概要: SPADE: Sparsity Adaptive Depth Estimator for Zero-Shot, Real-Time, Monocular Depth Estimation in Underwater Environments
- arxiv url: http://arxiv.org/abs/2510.25463v1
- Date: Wed, 29 Oct 2025 12:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 18:06:02.048886
- Title: SPADE: Sparsity Adaptive Depth Estimator for Zero-Shot, Real-Time, Monocular Depth Estimation in Underwater Environments
- Title(参考訳): SPADE:水中環境におけるゼロショット,リアルタイム,単眼深度推定のための空間適応深さ推定器
- Authors: Hongjie Zhang, Gideon Billings, Stefan B. Williams,
- Abstract要約: 水中車両の空間的認識を高めることは、パイロットのリスクを減らし、より大きな自律性を実現するための鍵となる。
SPADE: SParsity Adaptive Depth Estimator(SPADE:SParsity Adaptive Depth Estimator)は、事前学習した相対深度推定器とスパース深度推定器を結合した単眼深度推定パイプラインである。
提案手法は,最先端のベースラインに対する精度の向上と一般化を実現し,組込みハードウェア上で15FPS以上の効率で動作し,実用的な水中検査と介入を支援することを約束する。
- 参考スコア(独自算出の注目度): 5.070043385937244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater infrastructure requires frequent inspection and maintenance due to harsh marine conditions. Current reliance on human divers or remotely operated vehicles is limited by perceptual and operational challenges, especially around complex structures or in turbid water. Enhancing the spatial awareness of underwater vehicles is key to reducing piloting risks and enabling greater autonomy. To address these challenges, we present SPADE: SParsity Adaptive Depth Estimator, a monocular depth estimation pipeline that combines pre-trained relative depth estimator with sparse depth priors to produce dense, metric scale depth maps. Our two-stage approach first scales the relative depth map with the sparse depth points, then refines the final metric prediction with our proposed Cascade Conv-Deformable Transformer blocks. Our approach achieves improved accuracy and generalisation over state-of-the-art baselines and runs efficiently at over 15 FPS on embedded hardware, promising to support practical underwater inspection and intervention. This work has been submitted to IEEE Journal of Oceanic Engineering Special Issue of AUV 2026.
- Abstract(参考訳): 地下水インフラは、厳しい海洋条件のために頻繁に検査と維持を必要としている。
人間のダイバーや遠隔操作車両への現在の依存は、特に複雑な構造や濁った水に関する知覚的および運用上の課題によって制限される。
水中車両の空間的意識を高めることは、パイロットのリスクを低減し、より大きな自律性を実現するための鍵となる。
これらの課題に対処するため、SPADE: SParsity Adaptive Depth Estimatorは、事前訓練された相対深度推定器とスパース深度を組み合わせて、密度の高い計量スケール深度マップを生成する単眼深度推定パイプラインである。
我々の2段階のアプローチは、まずスパース深度で相対深度マップをスケールし、次に提案したカスケードコンバータブル変圧器ブロックを用いて最終測度予測を洗練する。
提案手法は,最先端のベースラインに対する精度の向上と一般化を実現し,組込みハードウェア上で15FPS以上の効率で動作し,実用的な水中検査と介入を支援することを約束する。
この研究は、IEEE Journal of Oceanic Engineering Special Issue of AUV 2026に提出された。
関連論文リスト
- DUViN: Diffusion-Based Underwater Visual Navigation via Knowledge-Transferred Depth Features [47.88998580611257]
本研究では,知識伝達深度特性を用いた拡散型水中ビジュアルナビゲーションポリシーDUViNを提案する。
DuViNは、事前に構築された地図に頼ることなく、障害物を回避し、地形に対して安全かつ認識の高い高度を維持するよう車両を誘導する。
シミュレーションおよび実世界の水中環境における実験は、我々のアプローチの有効性と一般化を実証している。
論文 参考訳(メタデータ) (2025-09-03T03:43:12Z) - Depth-Constrained ASV Navigation with Deep RL and Limited Sensing [43.785833390490446]
本研究では,深度制約下でのASVナビゲーションのための強化学習フレームワークを提案する。
環境意識を高めるため,GPレグレッションをRLフレームワークに統合する。
我々は,実世界の水環境に対して,訓練された政策が適切に一般化されることを保証する効果的なシミュレート・トゥ・リアル・トランスファーを実証する。
論文 参考訳(メタデータ) (2025-04-25T10:56:56Z) - Dense Geometry Supervision for Underwater Depth Estimation [0.0]
本稿では,水中環境における単分子深度推定法における既存の課題に対処する新しい手法を提案する。
多視点深度推定を用いて,水中シナリオに適した経済的に効率的なデータセットを構築した。
本研究では,テクスチャキューからの深度情報を効果的に活用し,統合することを目的としたテクスチャ深度融合モジュールを提案する。
論文 参考訳(メタデータ) (2025-04-25T10:27:25Z) - DeepAqua: Self-Supervised Semantic Segmentation of Wetland Surface Water
Extent with SAR Images using Knowledge Distillation [44.99833362998488]
トレーニングフェーズ中に手動アノテーションを不要にする自己教師型ディープラーニングモデルであるDeepAquaを提案する。
我々は、光とレーダーをベースとしたウォーターマスクが一致する場合を利用して、水面と植物の両方を検知する。
実験の結果,DeepAquaの精度は7%向上し,Intersection Over Unionが27%,F1が14%向上した。
論文 参考訳(メタデータ) (2023-05-02T18:06:21Z) - Faster Depth-Adaptive Transformers [71.20237659479703]
深さ適応型ニューラルネットワークは入力単語の硬さに応じて動的に深さを調整することができる。
従来の作業は一般的に、計算が各レイヤで続行するか停止するかを決定するために停止ユニットを構築する。
本稿では,停止ユニットを除去し,必要な深さを事前に推定し,より高速な深度適応モデルを生成する。
論文 参考訳(メタデータ) (2020-04-27T15:08:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。