論文の概要: Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion
- arxiv url: http://arxiv.org/abs/2103.16690v1
- Date: Tue, 30 Mar 2021 21:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 08:30:35.410430
- Title: Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion
- Title(参考訳): 統一単眼深度予測と完了のためのスパース補助ネットワーク
- Authors: Vitor Guizilini, Rares Ambrus, Wolfram Burgard, Adrien Gaidon
- Abstract要約: コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
- 参考スコア(独自算出の注目度): 56.85837052421469
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating scene geometry from data obtained with cost-effective sensors is
key for robots and self-driving cars. In this paper, we study the problem of
predicting dense depth from a single RGB image (monodepth) with optional sparse
measurements from low-cost active depth sensors. We introduce Sparse Auxiliary
Networks (SANs), a new module enabling monodepth networks to perform both the
tasks of depth prediction and completion, depending on whether only RGB images
or also sparse point clouds are available at inference time. First, we decouple
the image and depth map encoding stages using sparse convolutions to process
only the valid depth map pixels. Second, we inject this information, when
available, into the skip connections of the depth prediction network,
augmenting its features. Through extensive experimental analysis on one indoor
(NYUv2) and two outdoor (KITTI and DDAD) benchmarks, we demonstrate that our
proposed SAN architecture is able to simultaneously learn both tasks, while
achieving a new state of the art in depth prediction by a significant margin.
- Abstract(参考訳): コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から高密度の深度を推定する問題について,低コストな能動深度センサを用いて任意のスパース測定を行った。
提案するSparse Auxiliary Networks (SANs) は,RGB画像とスパースポイントクラウドの両方を推論時に利用できるかによって,深度予測と完了の両タスクをモノデプスネットワークで実行できる新しいモジュールである。
まず,画像と深度マップの符号化段階をスパース畳み込みを用いて分離し,有効な深度マップ画素のみを処理する。
第2に、この情報を利用可能な場合、深度予測ネットワークのスキップ接続に注入し、その機能を増強する。
1つの室内(nyuv2)と2つの屋外(kittiとddad)ベンチマークの広範な実験分析を通じて,提案するsanアーキテクチャが両タスクを同時に学習できると同時に,奥行き予測の新たな状態を実現することを実証した。
関連論文リスト
- GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - RGB-Depth Fusion GAN for Indoor Depth Completion [29.938869342958125]
本稿では,RGBと不完全深度画像のペアを入力として,高密度で完成度の高い深度マップを推定する,新しい2分岐エンドツーエンド融合ネットワークを設計する。
あるブランチでは、RGB画像を微細なテクスチャ化深度マップに転送するRGB深度融合GANを提案する。
他方のブランチでは、W-AdaINという名前の適応核融合モジュールを採用し、2つのブランチにまたがる特徴を伝播させます。
論文 参考訳(メタデータ) (2022-03-21T10:26:38Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z) - 3dDepthNet: Point Cloud Guided Depth Completion Network for Sparse Depth
and Single Color Image [42.13930269841654]
我々のネットワークは、正確かつ軽量な3次元から2次元の粗大な二重密度化設計を提供する。
KITTIデータセットの実験は、我々のネットワークがより効率的でありながら最先端の精度を実現していることを示している。
論文 参考訳(メタデータ) (2020-03-20T10:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。