論文の概要: UDepth: Fast Monocular Depth Estimation for Visually-guided Underwater
Robots
- arxiv url: http://arxiv.org/abs/2209.12358v1
- Date: Mon, 26 Sep 2022 01:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 17:35:15.121447
- Title: UDepth: Fast Monocular Depth Estimation for Visually-guided Underwater
Robots
- Title(参考訳): UDepth:視覚誘導水中ロボットの高速単眼深度推定
- Authors: Boxiao Yu, Jiayi Wu and Md Jahidul Islam
- Abstract要約: 低コスト水中ロボットの3次元認識機能を実現するための高速な単眼深度推定法を提案する。
我々は,自然の水中シーンの画像形成特性に関するドメイン知識を取り入れた,UDepthという新しいエンド・ツー・エンドの深層学習パイプラインを定式化した。
- 参考スコア(独自算出の注目度): 4.157415305926584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a fast monocular depth estimation method for
enabling 3D perception capabilities of low-cost underwater robots. We formulate
a novel end-to-end deep visual learning pipeline named UDepth, which
incorporates domain knowledge of image formation characteristics of natural
underwater scenes. First, we adapt a new input space from raw RGB image space
by exploiting underwater light attenuation prior, and then devise a
least-squared formulation for coarse pixel-wise depth prediction. Subsequently,
we extend this into a domain projection loss that guides the end-to-end
learning of UDepth on over 9K RGB-D training samples. UDepth is designed with a
computationally light MobileNetV2 backbone and a Transformer-based optimizer
for ensuring fast inference rates on embedded systems. By domain-aware design
choices and through comprehensive experimental analyses, we demonstrate that it
is possible to achieve state-of-the-art depth estimation performance while
ensuring a small computational footprint. Specifically, with 70%-80% less
network parameters than existing benchmarks, UDepth achieves comparable and
often better depth estimation performance. While the full model offers over 66
FPS (13 FPS) inference rates on a single GPU (CPU core), our domain projection
for coarse depth prediction runs at 51.5 FPS rates on single-board NVIDIA
Jetson TX2s. The inference pipelines are available at
https://github.com/uf-robopi/UDepth.
- Abstract(参考訳): 本稿では,低コスト水中ロボットの3次元知覚能力を実現するための高速単眼深度推定法を提案する。
我々は,自然水中シーンの画像形成特性のドメイン知識を取り入れた,UDepthという新しいエンドツーエンドの深層学習パイプラインを構築した。
まず,水中光減衰を事前に活用し,生のrgb画像空間からの新たな入力空間を適応させ,粗画素方向深度予測のための最小二乗定式化を考案する。
その後、9k rgb-dトレーニングサンプルでudepthのエンドツーエンド学習をガイドするドメインプロジェクション損失に拡張します。
UDepthは計算的に軽量なMobileNetV2バックボーンと、組み込みシステムの高速推論速度を保証するTransformerベースのオプティマイザで設計されている。
ドメイン認識設計の選択と包括的実験分析により,少ない計算フットプリントを確保しつつ,最先端の深さ推定性能を達成できることを実証する。
具体的には、既存のベンチマークよりも70%から80%少ないネットワークパラメータで、UDepthは同等で、しばしばより優れた深さ推定性能を達成する。
フルモデルでは、単一のGPU(CPUコア)上で66 FPS (13 FPS) の推論レートが提供されているが、粗い深さ予測のドメイン予測は、シングルボードのNVIDIA Jetson TX2上で51.5 FPSレートで実行される。
推論パイプラインはhttps://github.com/uf-robopi/UDepthで公開されている。
関連論文リスト
- NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - Real-time Monocular Depth Estimation on Embedded Systems [32.40848141360501]
2つの効率的なRT-MonoDepthアーキテクチャとRT-MonoDepth-Sアーキテクチャを提案する。
RT-MonoDepthとRT-MonoDepth-SはNVIDIA Jetson Nanoで18.4&30.5 FPS、Jetson AGX Orinで253.0&364.1 FPSを達成した。
論文 参考訳(メタデータ) (2023-08-21T08:59:59Z) - P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior [133.76192155312182]
本研究では,コプラナー画素からの情報を選択的に活用して予測深度を改善する手法を提案する。
本手法の広範な評価により, 教師付き単分子深度推定法において, 新たな手法の確立が期待できる。
論文 参考訳(メタデータ) (2022-04-05T10:03:52Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - MiniNet: An extremely lightweight convolutional neural network for
real-time unsupervised monocular depth estimation [22.495019810166397]
本稿では,深層ネットワークの機能を実現するために,再帰モジュールを備えた新しい強力なネットワークを提案する。
我々は、ビデオシーケンスからリアルタイムな高性能な教師なし単眼深度予測を行うために、非常に軽量なサイズを維持している。
私たちの新しいモデルは、1つのGPUで約110フレーム/秒(fps)、単一のCPUで37fps、Raspberry Pi 3で2fpsで実行できます。
論文 参考訳(メタデータ) (2020-06-27T12:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。