論文の概要: Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots
- arxiv url: http://arxiv.org/abs/2310.16750v1
- Date: Wed, 25 Oct 2023 16:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 13:40:56.788005
- Title: Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots
- Title(参考訳): 水中ロボットのスパース前処理によるメートルスケール単眼深度推定
- Authors: Luca Ebner, Gideon Billings, Stefan Williams
- Abstract要約: 三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we address the problem of real-time dense depth estimation from
monocular images for mobile underwater vehicles. We formulate a deep learning
model that fuses sparse depth measurements from triangulated features to
improve the depth predictions and solve the problem of scale ambiguity. To
allow prior inputs of arbitrary sparsity, we apply a dense parameterization
method. Our model extends recent state-of-the-art approaches to monocular image
based depth estimation, using an efficient encoder-decoder backbone and modern
lightweight transformer optimization stage to encode global context. The
network is trained in a supervised fashion on the forward-looking underwater
dataset, FLSea. Evaluation results on this dataset demonstrate significant
improvement in depth prediction accuracy by the fusion of the sparse feature
priors. In addition, without any retraining, our method achieves similar depth
prediction accuracy on a downward looking dataset we collected with a diver
operated camera rig, conducting a survey of a coral reef. The method achieves
real-time performance, running at 160 FPS on a laptop GPU and 7 FPS on a single
CPU core and is suitable for direct deployment on embedded systems. The
implementation of this work is made publicly available at
https://github.com/ebnerluca/uw_depth.
- Abstract(参考訳): 本研究では,移動式水中車両におけるモノクル画像からのリアルタイム深度推定の問題に対処する。
三角特徴量からスパース深度測定を解き、深度予測を改善し、スケールの曖昧さを解消する深度学習モデルを定式化する。
任意の空間の事前入力を可能にするために、高密度パラメータ化法を適用する。
我々のモデルは、効率的なエンコーダデコーダバックボーンと現代的な軽量トランスフォーマー最適化ステージを用いて、モノクロ画像に基づく深度推定の最先端アプローチを拡張した。
このネットワークは、前方に見える水中データセットflseaで教師付きで訓練されている。
このデータセットの評価結果は,スパース特徴の融合による深度予測精度の大幅な向上を示す。
また,リトレーニングを行わずに,ダイバー操作型カメラリグで収集した下向きデータセットにおいて,サンゴ礁の調査を行い,同様の深さ予測精度を実現した。
この方法は、ラップトップgpu上で160fps、単一のcpuコア上で7fpsのリアルタイムパフォーマンスを実現し、組み込みシステムへの直接デプロイに適している。
この実装はhttps://github.com/ebnerluca/uw_depthで公開されている。
関連論文リスト
- Self-supervised Monocular Depth Estimation with Large Kernel Attention [30.44895226042849]
より詳細な情報を得るために,自己教師付き単眼深度推定ネットワークを提案する。
具体的には,長距離依存性をモデル化可能なカーネルアテンションに基づくデコーダを提案する。
提案手法は,KITTIデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-09-26T14:44:41Z) - Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - UDepth: Fast Monocular Depth Estimation for Visually-guided Underwater
Robots [4.157415305926584]
低コスト水中ロボットの3次元認識機能を実現するための高速な単眼深度推定法を提案する。
我々は,自然の水中シーンの画像形成特性に関するドメイン知識を取り入れた,UDepthという新しいエンド・ツー・エンドの深層学習パイプラインを定式化した。
論文 参考訳(メタデータ) (2022-09-26T01:08:36Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Depth Completion via Inductive Fusion of Planar LIDAR and Monocular
Camera [27.978780155504467]
我々は、確率モデルにインスパイアされた異なるセンサのモーダル性をよりよく融合させるインダクティブ遅延融合ブロックを導入する。
このブロックは、疎深度特徴による実演に基づく深度予測を誘導するために、密集したコンテキスト特徴を使用する。
提案手法は,ベンチマークデータセットとシミュレーションデータセットの両方に対する従来のアプローチと比較して有望な結果を示す。
論文 参考訳(メタデータ) (2020-09-03T18:39:57Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。